API Reference#
This is the class and function reference of scikit-learn. Please refer to the full user guide for further details, as the raw specifications of classes and functions may not be enough to give full guidelines on their uses. For reference on concepts repeated across the API, see 常用术语和API元素词汇表.
Object | Description |
---|---|
上下文管理器用于全局scikit-learn配置。 |
|
获取由 |
|
设置全局scikit-learn配置。 |
|
打印有用的调试信息” |
|
基类,适用于scikit-learn中的所有估计器。 |
|
Mixin类用于scikit-learn中的所有双聚类估计器。 |
|
Mixin类用于通过前缀生成自己的名称的转换器。 |
|
Mixin类用于scikit-learn中的所有分类器。 |
|
Mixin类用于scikit-learn中的所有聚类估计器。 |
|
Mixin类用于scikit-learn中的所有密度估计器。 |
|
Mixin类用于scikit-learn中的所有元估计器。 |
|
提供 |
|
Mixin类用于scikit-learn中的所有异常检测估计器。 |
|
Mixin类用于scikit-learn中的所有回归估计器。 |
|
Mixin类用于scikit-learn中的所有转换器。 |
|
构造一个具有相同参数的新未拟合估计器。 |
|
返回True如果给定的估计器是一个(可能的)分类器。 |
|
返回True如果给定的估计器是一个(可能的)聚类器。 |
|
返回True如果给定的估计器是一个(可能的)回归器。 |
|
概率校准使用等渗回归或逻辑回归。 |
|
计算校准曲线的真实和预测概率。 |
|
校准曲线(也称为可靠性图)可视化。 |
|
执行数据亲和传播聚类。 |
|
凝聚聚类。 |
|
实现BIRCH聚类算法。 |
|
二分 K-Means 聚类。 |
|
执行DBSCAN聚类从向量数组或距离矩阵。 |
|
聚合特征。 |
|
聚类数据使用层次密度聚类。 |
|
K-Means 聚类。 |
|
均值漂移聚类使用平坦核。 |
|
Mini-Batch K-Means 聚类。 |
|
估计向量数组的聚类结构。 |
|
谱双聚类(Kluger, 2003)。 |
|
应用聚类到归一化拉普拉斯矩阵的投影。 |
|
谱共聚类算法(Dhillon, 2001)。 |
|
执行数据的自适应传播聚类。 |
|
执行DBSCAN提取以适应任意epsilon。 |
|
自动根据Xi-steep方法提取聚类。 |
|
计算OPTICS可达性图。 |
|
执行DBSCAN聚类从向量数组或距离矩阵。 |
|
估计用于均值漂移算法的带宽。 |
|
执行K-means聚类算法。 |
|
初始化 n_clusters 种子根据 k-means++。 |
|
执行使用平坦核的均值漂移聚类数据。 |
|
应用聚类到归一化拉普拉斯投影。 |
|
Ward聚类基于特征矩阵。 |
|
应用转换器到数组或pandas DataFrame的列。 |
|
元估计器用于对变换后的目标进行回归。 |
|
创建一个可调用对象以选择与 |
|
构建一个由给定转换器组成的ColumnTransformer。 |
|
一个用于检测高斯分布数据集中异常点的对象。 |
|
最大似然协方差估计器。 |
|
稀疏逆协方差估计使用l1惩罚估计器。 |
|
稀疏逆协方差与交叉验证选择的l1惩罚。 |
|
LedoitWolf 估计器。 |
|
最小协方差决定(MCD):协方差的稳健估计器。 |
|
Oracle 近似收缩估计器。 |
|
协方差估计器使用收缩方法。 |
|
计算最大似然协方差估计器。 |
|
L1-惩罚协方差估计器。 |
|
估计收缩的Ledoit-Wolf协方差矩阵。 |
|
估计收缩的Ledoit-Wolf协方差矩阵。 |
|
估计使用Oracle近似收缩的协方差。 |
|
计算对角线收缩的协方差矩阵。 |
|
正则相关分析,也称为“模式B”PLS。 |
|
部分最小二乘变换器和回归器。 |
|
PLS回归。 |
|
部分最小二乘奇异值分解。 |
|
删除数据主目录缓存的所有内容。 |
|
将数据集以svmlight / libsvm文件格式转储。 |
|
加载20个新闻组数据集的文件名和数据(分类)。 |
|
加载并向量化20个新闻组数据集(分类)。 |
|
加载加利福尼亚住房数据集(回归)。 |
|
加载covertype数据集(分类)。 |
|
加载kddcup99数据集(分类)。 |
|
加载Labeled Faces in the Wild (LFW) pairs数据集(分类)。 |
|
加载Labeled Faces in the Wild (LFW)人物数据集(分类)。 |
|
加载来自AT&T的Olivetti人脸数据集(分类)。 |
|
从openml按名称或数据集ID获取数据集。 |
|
加载RCV1多标签数据集(分类)。 |
|
加载Phillips等人(2006年)的物种分布数据集的加载器。 |
|
返回scikit-learn数据目录的路径。 |
|
加载并返回乳腺癌威斯康星数据集(分类)。 |
|
加载并返回糖尿病数据集(回归)。 |
|
加载并返回数字数据集(分类)。 |
|
加载带有类别作为子文件夹名称的文本文件。 |
|
加载并返回鸢尾花数据集(分类)。 |
|
加载并返回物理锻炼Linnerud数据集。 |
|
加载单个样本图像的numpy数组。 |
|
加载用于图像处理的示例图像。 |
|
加载以svmlight / libsvm格式存储的数据集到稀疏CSR矩阵中。 |
|
从多个文件加载数据集,文件格式为SVMlight格式。 |
|
加载并返回葡萄酒数据集(分类)。 |
|
生成一个用于双聚类的常量块对角结构数组。 |
|
生成用于聚类的各向同性高斯斑点。 |
|
生成一个用于双聚类的块状棋盘结构的数组。 |
|
创建一个包含较小圆的大圆在二维平面上。 |
|
生成一个随机的n类分类问题。 |
|
生成“Friedman #1”回归问题。 |
|
生成 “Friedman #2” 回归问题。 |
|
生成“Friedman #3”回归问题。 |
|
生成各向同性高斯和按分位数标记的样本。 |
|
生成用于Hastie等人在2009年提出的二分类数据,示例10.2。 |
|
生成一个主要为低秩矩阵,具有钟形奇异值。 |
|
制作两个交错的半圆。 |
|
生成一个随机的多标签分类问题。 |
|
生成一个随机回归问题。 |
|
生成一个S形曲线数据集。 |
|
生成一个由字典元素稀疏组合而成的信号。 |
|
生成一个稀疏的对称正定矩阵。 |
|
生成一个具有稀疏不相关设计的随机回归问题。 |
|
生成一个随机的对称正定矩阵。 |
|
生成一个瑞士卷数据集。 |
|
字典学习。 |
|
因子分析(FA)。 |
|
FastICA: 一种用于独立成分分析的快速算法。 |
|
增量主成分分析(IPCA)。 |
|
内核主成分分析(KPCA)。 |
|
潜在狄利克雷分配与在线变分贝叶斯算法。 |
|
Mini-batch 字典学习。 |
|
Mini-Batch 非负矩阵分解 (NMF)。 |
|
Mini-batch 稀疏主成分分析。 |
|
非负矩阵分解(NMF)。 |
|
主成分分析(PCA)。 |
|
稀疏编码。 |
|
稀疏主成分分析(SparsePCA)。 |
|
降维使用截断的SVD(又名LSA)。 |
|
解决字典学习矩阵分解问题。 |
|
解决一个字典学习矩阵分解问题的在线方法。 |
|
执行快速独立成分分析。 |
|
计算非负矩阵分解(NMF)。 |
|
稀疏编码。 |
|
线性判别分析。 |
|
二次判别分析。 |
|
DummyClassifier 生成忽略输入特征的预测。 |
|
回归器,使用简单规则进行预测。 |
|
一个AdaBoost分类器。 |
|
一个AdaBoost回归器。 |
|
一个Bagging分类器。 |
|
一个Bagging回归器。 |
|
一个极端随机树分类器。 |
|
一个极端随机树回归器。 |
|
梯度提升用于分类。 |
|
梯度提升用于回归。 |
|
直方图梯度提升分类树。 |
|
直方图梯度提升回归树。 |
|
Isolation Forest Algorithm. |
|
一个随机森林分类器。 |
|
一个随机森林回归器。 |
|
一个完全随机树的集合。 |
|
堆叠估计器与最终分类器。 |
|
堆叠估计器与最终回归器。 |
|
软投票/多数规则分类器,用于未拟合的估计器。 |
|
预测投票回归器,用于未拟合的估计器。 |
|
自定义警告以捕获收敛问题 |
|
警告用于通知代码中发生的隐式数据转换。 |
|
自定义警告,用于通知数据维度方面的潜在问题。 |
|
警告用于通知用户计算效率低下。 |
|
警告类,用于在拟合估计器时发生错误。 |
|
警告:当一个估计器以不一致的版本解封时引发。 |
|
异常类,如果在拟合之前使用估计器,则引发该异常。 |
|
警告用于当指标无效时 |
|
启用逐次减半搜索估计器 |
|
启用 IterativeImputer |
|
将特征-值映射列表转换为向量。 |
|
实现特征哈希,即哈希技巧。 |
|
提取图像集合中的补丁。 |
|
将2D图像重塑为补丁集合。 |
|
图的像素到像素连接。 |
|
图的像素到像素梯度连接。 |
|
从所有补丁重建图像。 |
|
将一组文本文档转换为标记计数矩阵。 |
|
将一组文本文档转换为标记出现次数的矩阵。 |
|
将计数矩阵转换为归一化的tf或tf-idf表示形式。 |
|
将一组原始文档转换为TF-IDF特征矩阵。 |
|
单变量特征选择器,具有可配置的策略。 |
|
特征排序与递归特征消除。 |
|
递归特征消除与交叉验证选择特征。 |
|
过滤器:选择估计的错误发现率对应的p值。 |
|
过滤器:基于FPR测试选择低于alpha的p值。 |
|
元转换器,用于根据重要性权重选择特征。 |
|
过滤器:选择对应于族错误率的p值。 |
|
根据k个最高分数选择特征。 |
|
根据最高得分的百分位数选择特征。 |
|
Transformer mixin 提供了基于支持掩码的特征选择功能 |
|
变压器,执行顺序特征选择。 |
|
特征选择器,移除所有低方差的特征。 |
|
计算每个非负特征与类别之间的卡方统计量。 |
|
计算提供的样本的ANOVA F值。 |
|
单变量线性回归测试返回F统计量和p值。 |
|
估计离散目标变量的互信息。 |
|
估计连续目标变量的互信息。 |
|
计算每个特征与目标之间的皮尔逊相关系数r。 |
|
高斯过程分类(GPC)基于拉普拉斯近似。 |
|
高斯过程回归(GPR)。 |
|
核函数,由一组其他核函数组成。 |
|
Dot-Product 核函数。 |
|
Exp-Sine-Squared 核(又称周期核)。 |
|
指数核接受一个基础核和一个标量参数 |
|
一个以namedtuple形式表示的核超参数规范。 |
|
基类用于所有核函数。 |
|
Matern 核函数。 |
|
包装器用于sklearn.metrics.pairwise中的内核。 |
|
|
|
径向基函数核(又称平方指数核)。 |
|
有理二次核函数。 |
|
|
|
多变量插补器,从所有其他特征中估计每个特征。 |
|
补全缺失值的插补方法,使用k-最近邻算法。 |
|
二进制指示器用于缺失值。 |
|
单变量插补器,用于使用简单策略完成缺失值。 |
|
部分依赖于 |
|
排列重要性用于特征评估 [Rd9e56ef97513-BRE]. |
|
决策边界可视化。 |
|
部分依赖图 (PDP)。 |
|
回归模型。 |
|
确定y是否与x单调相关。 |
|
解决等渗回归模型。 |
|
近似特征映射用于加性chi2核。 |
|
近似使用训练数据的一个子集来近似一个核映射。 |
|
多项式核近似通过张量草图实现。 |
|
近似使用随机傅里叶特征的RBF核特征映射。 |
|
近似“偏斜卡方”核的特征映射。 |
|
核岭回归。 |
|
逻辑回归(也称为logit,MaxEnt)分类器。 |
|
逻辑回归交叉验证(即logit,MaxEnt)分类器。 |
|
被动攻击分类器。 |
|
线性感知机分类器。 |
|
分类器使用岭回归。 |
|
岭分类器,内置交叉验证。 |
|
线性分类器(SVM、逻辑回归等)使用SGD训练。 |
|
解决使用随机梯度下降的线性单类支持向量机。 |
|
普通最小二乘线性回归。 |
|
线性最小二乘法与l2正则化。 |
|
岭回归内置交叉验证。 |
|
线性模型通过最小化带有SGD的正则化经验损失进行拟合。 |
|
线性回归结合了L1和L2先验作为正则化项。 |
|
弹性网络模型沿正则化路径进行迭代拟合。 |
|
最小角回归模型,又名 LAR。 |
|
交叉验证的最小角回归模型。 |
|
线性模型使用L1先验作为正则化训练(又名Lasso)。 |
|
Lasso线性模型沿着正则化路径进行迭代拟合。 |
|
Lasso模型使用最小角回归进行拟合,即Lars。 |
|
交叉验证的Lasso,使用LARS算法。 |
|
Lasso模型使用Lars并通过BIC或AIC进行模型选择。 |
|
正交匹配追踪模型(OMP)。 |
|
跨验证正交匹配追踪模型(OMP)。 |
|
贝叶斯 ARD 回归。 |
|
贝叶斯岭回归。 |
|
多任务弹性网络模型,使用L1/L2混合范数作为正则化器进行训练。 |
|
多任务L1/L2弹性网络,内置交叉验证。 |
|
多任务Lasso模型,使用L1/L2混合范数作为正则化项进行训练。 |
|
多任务Lasso模型,使用L1/L2混合范数作为正则化项进行训练。 |
|
L2-正则化的线性回归模型,对异常值具有鲁棒性。 |
|
线性回归模型,用于预测条件分位数。 |
|
RANSAC (RANdom SAmple Consensus) 算法。 |
|
Theil-Sen 估计器:稳健的多变量回归模型。 |
|
广义线性模型与Gamma分布。 |
|
广义线性模型与泊松分布。 |
|
广义线性模型与Tweedie分布。 |
|
被动攻击回归器。 |
|
计算弹性网络路径使用坐标下降法。 |
|
计算最小角回归或Lasso路径使用LARS算法。 |
|
lars_path 在充分统计模式下。 |
|
计算Lasso路径使用坐标下降法。 |
|
正交匹配追踪 (OMP)。 |
|
Gram 正交匹配追踪 (OMP). |
|
解决岭方程通过正规方程法。 |
|
Isomap Embedding. |
|
局部线性嵌入。 |
|
多维缩放。 |
|
光谱嵌入用于非线性降维。 |
|
T-分布随机邻域嵌入。 |
|
执行数据上的局部线性嵌入分析。 |
|
计算使用SMACOF算法的多维缩放。 |
|
将样本投影到图拉普拉斯矩阵的前几个特征向量上。 |
|
指示局部结构保留到何种程度。 |
|
确定用户选项的评分器。 |
|
获取字符串形式的评分器。 |
|
获取所有可用评分器的名称。 |
|
创建一个从性能指标或损失函数生成的评分器。 |
|
准确性分类得分。 |
|
计算使用梯形法则的曲线下面积(AUC)。 |
|
计算预测分数的平均精度(AP)。 |
|
计算平衡准确率。 |
|
计算Brier分数损失。 |
|
计算二分类的正负似然比。 |
|
构建一个文本报告,展示主要的分类指标。 |
|
计算Cohen’s kappa:一种衡量标注者之间一致性的统计量。 |
|
计算混淆矩阵以评估分类的准确性。 |
|
计算折损累计增益。 |
|
计算不同概率阈值下的错误率。 |
|
计算F1分数,也称为平衡F-分数或F-度量。 |
|
计算 F-beta 分数。 |
|
计算平均汉明损失。 |
|
平均铰链损失(非正则化)。 |
|
Jaccard相似系数得分。 |
|
Log loss,又称逻辑损失或交叉熵损失。 |
|
计算 Matthews 相关系数(MCC)。 |
|
计算每个类别或样本的混淆矩阵。 |
|
计算归一化折损累积增益。 |
|
计算不同概率阈值下的精确率-召回率对。 |
|
计算每个类别的精确度、召回率、F-度量和支持度。 |
|
计算精确度。 |
|
计算召回率。 |
|
计算从预测分数得到的受试者工作特征曲线(ROC AUC)下的面积。 |
|
计算接收者操作特征(ROC)。 |
|
Top-k 准确率分类得分。 |
|
零一分类损失。 |
|
方差解释回归评分函数。 |
|
max_error 指标计算最大残差误差。 |
|
平均绝对误差回归损失。 |
|
平均绝对百分比误差(MAPE)回归损失。 |
|
均值伽玛偏差回归损失。 |
|
Pinball损失用于分位数回归。 |
|
均值泊松偏差回归损失。 |
|
均方误差回归损失。 |
|
均方对数误差回归损失。 |
|
均值 Tweedie 偏差回归损失。 |
|
中位绝对误差回归损失。 |
|
均方根误差回归损失。 |
|
均方对数误差回归损失。 |
|
覆盖错误度量。 |
|
计算基于排名的平均精度。 |
|
计算排序损失度量。 |
|
调整两个聚类的互信息。 |
|
Rand指数的随机调整。 |
|
计算 Calinski 和 Harabasz 分数。 |
|
构建一个描述标签之间关系的列联矩阵。 |
|
由两个聚类产生的对混淆矩阵。 |
|
计算给定真实标签的聚类标签完整性度量。 |
|
计算Davies-Bouldin得分。 |
|
测量一组点的两个聚类之间的相似性。 |
|
计算同质性、完整性和V-Measure分数。 |
|
同质性度量给定真实标签的聚类标签。 |
|
互信息在两个聚类之间的相似性度量。 |
|
标准化两个聚类之间的互信息。 |
|
Rand指数。 |
|
计算每个样本的轮廓系数。 |
|
计算所有样本的平均轮廓系数。 |
|
V-measure 聚类标签给定一个真实标签。 |
|
两个双聚类集的相似性。 |
|
统一接口,用于快速距离度量函数。 |
|
计算观测值 X 和 Y 之间的加性卡方核。 |
|
计算X和Y之间的指数卡方核。 |
|
计算X和Y中样本之间的余弦距离。 |
|
计算X和Y中样本之间的余弦相似度。 |
|
有效的成对距离度量。 |
|
计算向量数组X和Y中每一对之间的距离矩阵。 |
|
计算样本X和Y之间的Haversine距离。 |
|
有效的成对核函数度量。 |
|
计算X和Y之间的拉普拉斯核。 |
|
计算X和Y之间的线性核。 |
|
计算X和Y中向量之间的L1距离。 |
|
计算在存在缺失值的情况下的欧几里得距离。 |
|
计算X和Y之间的配对余弦距离。 |
|
计算X和Y之间的配对距离。 |
|
计算X和Y之间的配对欧几里得距离。 |
|
计算X和Y之间的配对L1距离。 |
|
计算数组 X 和可选数组 Y 之间的核。 |
|
计算X和Y之间的多项式核。 |
|
计算X和Y之间的rbf(高斯)核。 |
|
计算X和Y之间的Sigmoid核。 |
|
计算从向量数组X和可选的Y的距离矩阵。 |
|
计算一个点和一组点之间的最小距离。 |
|
计算一个点和一组点之间的最小距离。 |
|
生成一个分块的距离矩阵,可选的归约操作。 |
|
混淆矩阵可视化。 |
|
DET曲线可视化。 |
|
精确召回率可视化。 |
|
预测回归模型的误差可视化。 |
|
ROC曲线可视化。 |
|
变分贝叶斯高斯混合估计。 |
|
高斯混合模型。 |
|
K-fold迭代器变体,具有不重叠的组。 |
|
Shuffle-Group(s)-Out 交叉验证迭代器。 |
|
K-Fold交叉验证器。 |
|
Leave One Group Out 交叉验证器。 |
|
Leave-One-Out 交叉验证器。 |
|
Leave P Group(s) Out交叉验证器。 |
|
Leave-P-Out交叉验证器。 |
|
预定义的分割交叉验证器。 |
|
Repeated K-Fold 交叉验证器。 |
|
重复分层K折交叉验证器。 |
|
随机排列交叉验证器。 |
|
分层K折迭代器变种,具有不重叠的组。 |
|
分层K折交叉验证器。 |
|
分层随机分割交叉验证器。 |
|
时间序列交叉验证器。 |
|
输入检查工具,用于构建交叉验证器。 |
|
将数组或矩阵拆分为随机的训练和测试子集。 |
|
穷举搜索估计器的指定参数值。 |
|
搜索指定的参数值,使用连续减半的方法。 |
|
随机搜索超参数。 |
|
网格参数,每个参数有离散的数值。 |
|
生成器在给定分布中采样参数。 |
|
随机搜索超参数。 |
|
二元分类器,手动设置决策阈值。 |
|
分类器,使用交叉验证后调决策阈值。 |
|
生成每个输入数据点的交叉验证估计。 |
|
评估通过交叉验证的得分。 |
|
评估指标通过交叉验证并记录拟合/评分时间。 |
|
学习曲线。 |
|
评估通过排列验证分数的显著性。 |
|
验证曲线。 |
|
学习曲线可视化。 |
|
验证曲线可视化。 |
|
一对一多类策略。 |
|
One-vs-the-rest (OvR) 多类策略。 |
|
(Error-Correcting) Output-Code 多类策略。 |
|
一个将二元分类器排列成链的多标签模型。 |
|
多目标分类。 |
|
多目标回归。 |
|
一个将回归排列成链的多标签模型。 |
|
朴素贝叶斯分类器,适用于多元伯努利模型。 |
|
朴素贝叶斯分类器,适用于分类特征。 |
|
The Complement Naive Bayes classifier described in Rennie et al. (2003). |
|
高斯朴素贝叶斯(GaussianNB)。 |
|
朴素贝叶斯分类器用于多项式模型。 |
|
BallTree for fast generalized N-point problems |
|
KDTree for fast generalized N-point problems |
|
分类器实现k近邻投票。 |
|
基于k近邻的回归。 |
|
将X转换为k个最近邻的(加权)图。 |
|
核密度估计。 |
|
无监督异常检测使用局部异常因子(LOF)。 |
|
最近邻分类器。 |
|
无监督学习者,用于实现邻居搜索。 |
|
邻域组件分析。 |
|
分类器在给定半径内的邻居之间进行投票。 |
|
基于固定半径邻域的回归。 |
|
将X转换为一个(加权)邻近半径内的邻居图。 |
|
计算X中点的k-邻居的(加权)图。 |
|
计算X中点的(加权)邻居图。 |
|
对一个稀疏图进行排序,使得每一行按值递增存储。 |
|
伯努利受限玻尔兹曼机(RBM)。 |
|
多层感知器分类器。 |
|
多层感知器回归器。 |
|
将多个转换器对象的结果连接起来。 |
|
一个带有可选最终预测器的数据转换器序列。 |
|
构建一个来自给定估计器的 |
|
构造一个来自给定转换器的 |
|
二值化数据(根据阈值将特征值设置为0或1)。 |
|
构建一个来自任意可调用对象的转换器。 |
|
将连续数据分箱到区间中。 |
|
中心化任意核矩阵 |
|
将标签二值化以进行一对多的分类。 |
|
编码目标标签,使其值在0到n_classes-1之间。 |
|
缩放每个特征以其最大绝对值。 |
|
转换特征通过将每个特征缩放到给定范围。 |
|
转换可迭代对象和多标签格式之间的转换。 |
|
标准化样本为单位范数。 |
|
将分类特征编码为独热数值数组。 |
|
将分类特征编码为整数数组。 |
|
生成多项式和交互特征。 |
|
应用幂变换特征以使数据更接近高斯分布。 |
|
使用分位数信息转换特征。 |
|
使用对异常值具有鲁棒性的统计数据来缩放特征。 |
|
生成单变量B样条基函数。 |
|
标准化特征通过去除均值并缩放到单位方差。 |
|
目标编码器用于回归和分类目标。 |
|
增强数据集以添加额外的虚拟特征。 |
|
布尔阈值处理数组类或scipy.sparse矩阵。 |
|
二值化标签以一对多的方式进行。 |
|
将每个特征缩放到 [-1, 1] 范围而不破坏稀疏性。 |
|
转换特征通过将每个特征缩放到给定范围。 |
|
缩放输入向量以单位范数(向量长度)。 |
|
参数化、单调变换使数据更符合高斯分布。 |
|
使用分位数信息转换特征。 |
|
标准化一个数据集沿着任何轴。 |
|
标准化一个数据集沿着任意轴。 |
|
通过高斯随机投影降低维度。 |
|
通过稀疏随机投影降低维度。 |
|
找到一个“安全”的随机投影组件数量。 |
|
标签传播分类器。 |
|
LabelSpreading 模型用于半监督学习。 |
|
自训练分类器。 |
|
线性支持向量分类。 |
|
线性支持向量回归。 |
|
Nu-支持向量分类。 |
|
Nu支持向量回归。 |
|
无监督异常检测。 |
|
C-支持向量分类。 |
|
Epsilon-支持向量回归。 |
|
返回C的最低边界。 |
|
一个决策树分类器。 |
|
A decision tree regressor. |
|
一个极度随机化的树分类器。 |
|
一个极度随机的树回归器。 |
|
导出一个决策树为DOT格式。 |
|
构建一个文本报告,展示决策树的规则。 |
|
绘制决策树。 |
|
容器对象,将键暴露为属性。 |
|
返回使用索引的X的行、项或列。 |
|
将类似数组的对象转换为浮点数数组。 |
|
抛出ValueError如果X包含NaN或无穷大。 |
|
装饰器,用于将函数或类标记为已弃用。 |
|
构建一个估计器的HTML表示。 |
|
生成器,用于创建包含从0到 |
|
生成器,用于创建均匀分布的 |
|
使数组可索引以进行交叉验证。 |
|
计算种子处键的32位murmurhash3。 |
|
重采样数组或稀疏矩阵的一致方式。 |
|
返回一个可以安全用于X的掩码。 |
|
逐元素平方数组类和稀疏矩阵。 |
|
打乱数组或稀疏矩阵的一致方式。 |
|
输入验证用于标准估计器。 |
|
对数组、列表、稀疏矩阵或类似对象的输入验证。 |
|
检查所有数组是否具有一致的第一维度。 |
|
将种子转换为 np.random.RandomState 实例。 |
|
验证标量参数的类型和值。 |
|
执行估计器的is_fitted验证。 |
|
检查 |
|
确保数组是二维的、方形的和对称的。 |
|
将列或一维 numpy 数组展平,否则引发错误。 |
|
检查估计器的fit方法是否支持给定的参数。 |
|
一个只有在检查返回真值时才可用的属性。 |
|
估计不平衡数据集的类权重。 |
|
估计不平衡数据集的样本权重。 |
|
检查 |
|
确定由目标指示的数据类型。 |
|
提取一个有序的唯一标签数组。 |
|
计算稀疏向量的密度。 |
|
计算方阵的行列式对数。 |
|
计算一个正交矩阵,其范围近似于A的范围。 |
|
计算截断的随机SVD。 |
|
点积能够正确处理稀疏矩阵的情况。 |
|
返回一个数组,其中包含传入数组的加权众数(最常见的)值。 |
|
计算CSR或CSC矩阵沿轴的增量均值和方差。 |
|
原地列缩放CSC/CSR矩阵。 |
|
原地列缩放CSR矩阵。 |
|
原地行缩放CSR或CSC矩阵。 |
|
交换CSC/CSR矩阵的两列,原地操作。 |
|
交换CSC/CSR矩阵的两行,原地操作。 |
|
计算CSR或CSC矩阵沿某一轴的均值和方差。 |
|
就地规范化CSR矩阵或数组的行,使其L1范数归一化。 |
|
就地规范化CSR矩阵或数组的行,使其L2范数为1。 |
|
返回从源点到所有可到达节点的最短路径长度。 |
|
采样整数而不进行替换。 |
|
查找数组中正数值的最小值。 |
|
包含消费者的元数据请求信息。 |
|
存储并处理路由对象的元数据路由。 |
|
存储路由器调用者和被调用者方法之间的映射。 |
|
获取给定对象的 |
|
验证和路由输入参数。 |
|
获取来自 |
|
获取 |
|
获取 |
|
检查估计器是否符合scikit-learn的约定。 |
|
装饰器特定于Pytest,用于参数化估计器检查。 |
|
调整 |
|
装饰器用于捕获函数的参数。 |
|
Change the default backend used by Parallel inside a with block. |
|
Register a new Parallel backend factory. |