SVC#

class sklearn.svm.SVC(*, C=1.0, kernel='rbf', degree=3, gamma='scale', coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape='ovr', break_ties=False, random_state=None)#

C-支持向量分类。

该实现基于libsvm。拟合时间至少与样本数量成二次方关系,在数万个样本以上可能不切实际。对于大型数据集,请考虑使用 LinearSVCSGDClassifier ,可能在使用 Nystroem 转换器或其他 核近似 之后。

多类支持根据一对一方案处理。

有关提供的核函数精确数学公式的详细信息以及 gammacoef0degree 如何相互影响,请参阅叙述文档中的相应部分:核函数

要了解如何调整SVC的超参数,请参阅以下示例:嵌套与非嵌套交叉验证

更多信息请参阅 用户指南

Parameters:
Cfloat, default=1.0

正则化参数。正则化的强度与C成反比。必须严格为正。惩罚是平方l2惩罚。有关直观可视化正则化参数C缩放效果的示例,请参阅 缩放SVC的正则化参数

kernel{‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’} 或 callable, default=’rbf’

指定算法中使用的核类型。如果没有给出,将使用’rbf’。如果给定一个可调用对象,它用于从数据矩阵预计算核矩阵;该矩阵应为形状为 (n_samples, n_samples) 的数组。有关不同核类型的直观可视化示例,请参阅 使用不同SVM核函数绘制分类边界

degreeint, default=3

多项式核函数的次数(‘poly’)。必须为非负。被所有其他核忽略。

gamma{‘scale’, ‘auto’} 或 float, default=’scale’

‘rbf’、’poly’ 和 ‘sigmoid’ 的核系数。

  • 如果传递 gamma='scale' (默认),则使用 1 / (n_features * X.var()) 作为 gamma 的值,

  • 如果 ‘auto’,使用 1 / n_features

  • 如果为浮点数,必须为非负。

Changed in version 0.22: gamma 的默认值从 ‘auto’ 改为 ‘scale’。

coef0float, default=0.0

核函数中的独立项。仅在 ‘poly’ 和 ‘sigmoid’ 中显著。

shrinkingbool, default=True

是否使用收缩启发式。请参阅 用户指南

probabilitybool, default=False

是否启用概率估计。这必须在调用 fit 之前启用,将减慢该方法的速度,因为它内部使用5折交叉验证,并且 predict_proba 可能与 predict 不一致。更多信息请参阅 用户指南

tolfloat, default=1e-3

停止准则的容差。

cache_sizefloat, default=200

指定核缓存的大小(以MB为单位)。

class_weightdict 或 ‘balanced’, default=None

将类 i 的参数 C 设置为 class_weight[i]*C 以进行 SVC。如果没有给出,所有类都被认为具有相同的权重。 “balanced” 模式使用 y 的值自动调整权重,与输入数据中的类频率成反比,如 n_samples / (n_classes * np.bincount(y))

verbosebool, default=False

启用详细输出。请注意,此设置利用了 libsvm 中的每个进程运行时设置,如果在多线程上下文中启用,可能无法正常工作。

max_iterint, default=-1

在求解器中迭代的硬限制,或 -1 表示无限制。

decision_function_shape{‘ovo’, ‘ovr’}, default=’ovr’

是否返回形状为 (n_samples, n_classes) 的一对多 (‘ovr’) 决策函数,如所有其他分类器,还是返回 libsvm 的原始一对一 (‘ovo’) 决策函数,其形状为 (n_samples, n_classes * (n_classes - 1) / 2)。但是,请注意,内部总是使用一对一 (‘ovo’) 作为多类策略来训练模型;ovr 矩阵仅从 ovo 矩阵构建。该参数在二分类中被忽略。

Changed in version 0.19: decision_function_shape 默认为 ‘ovr’。

Added in version 0.17: decision_function_shape=’ovr’ 推荐。

Changed in version 0.17: 弃用 decision_function_shape=’ovo’ 和 None

break_tiesbool, default=False

如果为 true, decision_function_shape='ovr' ,且类别数 > 2,predict 将根据 decision_function 的置信值打破平局;否则返回平局类别中的第一个类别。请注意,打破平局相对于简单的预测会带来相对较高的计算成本。

Added in version 0.22.

random_stateint, RandomState 实例或 None, default=None

控制用于概率估计的数据混洗的伪随机数生成。当 probability 为 False 时被忽略。传递一个 int 以在多次函数调用中获得可重复的输出。请参阅 Glossary

Attributes:
class_weight_ndarray of shape (n_classes,)

每个类的参数 C 的乘数。基于 class_weight 参数计算。

classes_ndarray of shape (n_classes,)

类标签。

coef_ndarray of shape (n_classes * (n_classes - 1) / 2, n_features)

权重分配给特征当 kernel="linear" 时。

dual_coef_ndarray of shape (n_classes -1, n_SV)

决策函数中支持向量的双重系数(参见 数学公式 ),乘以其目标。 对于多类,所有一对一分类器的系数。 在多类情况下,系数的布局有些非平凡。有关详细信息,请参阅 用户指南的多类部分

fit_status_int

如果正确拟合,则为 0,否则为 1(将引发警告)。

intercept_ndarray of shape (n_classes * (n_classes - 1) / 2,)

决策函数中的常数。

n_features_in_int

fit 期间看到的特征数量。

Added in version 0.24.

feature_names_in_ndarray of shape ( n_features_in_ ,)

fit 期间看到的特征名称。仅当 X 的特征名称均为字符串时定义。

Added in version 1.0.

n_iter_ndarray of shape (n_classes * (n_classes - 1) // 2,)

优化例程运行以拟合模型的迭代次数。此属性的形状取决于优化的模型数量,而这又取决于类别数量。

Added in version 1.1.

support_ndarray of shape (n_SV)

支持向量的索引。

support_vectors_ndarray of shape (n_SV, n_features)

支持向量。如果核是预计算的,则为空数组。

n_support_ndarray of shape (n_classes,), dtype=int32

每个类别的支持向量数量。

probA_ndarray of shape (n_classes * (n_classes - 1) / 2)

参数在Platt缩放中学习,当 probability=True 时。

probB_ndarray of shape (n_classes * (n_classes - 1) / 2)

参数在Platt缩放中学习,当 probability=True 时。

shape_fit_tuple of int of shape (n_dimensions_of_X,)

训练向量 X 的数组维度。

See also

SVR

使用 libsvm 实现的用于回归的支持向量机。

LinearSVC

使用 liblinear 实现的用于分类的可扩展线性支持向量机。有关更多比较元素,请参阅 LinearSVC 的另见部分。

References

Examples

>>> import numpy as np
>>> from sklearn.pipeline import make_pipeline
>>> from sklearn.preprocessing import StandardScaler
>>> X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]])
>>> y = np.array([1, 1, 2, 2])
>>> from sklearn.svm import SVC
>>> clf = make_pipeline(StandardScaler(), SVC(gamma='auto'))
>>> clf.fit(X, y)
Pipeline(steps=[('standardscaler', StandardScaler()),
                ('svc', SVC(gamma='auto'))])
>>> print(clf.predict([[-0.8, -1]]))
[1]
property coef_#

权重分配给特征当 kernel="linear" 时。

Returns:
形状为 (n_features, n_classes) 的 ndarray
decision_function(X)#

评估样本X的决策函数。

Parameters:
X形状为 (n_samples, n_features) 的类数组

输入样本。

Returns:
X形状为 (n_samples, n_classes * (n_classes-1) / 2) 的 ndarray

返回模型中每个类的样本的决策函数。 如果 decision_function_shape=’ovr’,形状为 (n_samples, n_classes)。

Notes

如果 decision_function_shape=’ovo’,函数值与样本X到分离超平面的距离成正比。如果需要精确距离,将函数值除以权重向量 ( coef_ ) 的范数。进一步详情请参见 这个问题 。如果 decision_function_shape=’ovr’,决策函数是 ovo 决策函数的单调变换。

fit(X, y, sample_weight=None)#

拟合SVM模型根据给定的训练数据。

Parameters:
X{array-like, sparse matrix} of shape (n_samples, n_features) 或 (n_samples, n_samples)

训练向量,其中 n_samples 是样本的数量 和 n_features 是特征的数量。 对于 kernel=”precomputed”,X 的预期形状是 (n_samples, n_samples)。

yarray-like of shape (n_samples,)

目标值(在分类中是类标签,在回归中是实数)。

sample_weightarray-like of shape (n_samples,), default=None

每个样本的权重。按样本重新调整 C。更高的权重 迫使分类器在这些点上投入更多注意力。

Returns:
selfobject

拟合的估计器。

Notes

如果 X 和 y 不是 C 顺序的且连续的 np.float64 数组,并且 X 不是 scipy.sparse.csr_matrix,X 和/或 y 可能会被复制。

如果 X 是一个密集数组,那么其他方法将不支持稀疏矩阵作为输入。

get_metadata_routing()#

获取此对象的元数据路由。

请查看 用户指南 以了解路由机制的工作原理。

Returns:
routingMetadataRequest

MetadataRequest 封装的 路由信息。

get_params(deep=True)#

获取此估计器的参数。

Parameters:
deepbool, 默认=True

如果为True,将返回此估计器和包含的子对象(也是估计器)的参数。

Returns:
paramsdict

参数名称映射到它们的值。

property n_support_#

每个类别的支持向量数量。

predict(X)#

执行对X中样本的分类。

对于单类模型,返回+1或-1。

Parameters:
X{array-like, sparse matrix} of shape (n_samples, n_features) or (n_samples_test, n_samples_train)

对于kernel=”precomputed”,X的预期形状为 (n_samples_test, n_samples_train)。

Returns:
y_predndarray of shape (n_samples,)

样本在X中的类别标签。

predict_log_proba(X)#

计算样本在X中可能结果的对数概率。

模型需要在训练时计算概率信息:使用属性 probability 设置为True进行拟合。

Parameters:
X类似数组的形式 (n_samples, n_features) 或 (n_samples_test, n_samples_train)

对于kernel=”precomputed”,X的预期形状是 (n_samples_test, n_samples_train)。

Returns:
Tndarray of shape (n_samples, n_classes)

返回样本的对数概率,每个类别的对数概率在模型中。列对应于按排序顺序出现的类别,如属性 classes_ 中所示。

Notes

概率模型是使用交叉验证创建的,因此 结果可能与通过 预测获得的结果略有不同。此外,它会在非常小的 数据集上产生无意义的结果。

predict_proba(X)#

计算样本在X中可能结果的概率。

模型需要在训练时计算概率信息:使用属性 probability 设置为True进行拟合。

Parameters:
X形状为(n_samples, n_features)的类数组

对于kernel=”precomputed”,X的预期形状为(n_samples_test, n_samples_train)。

Returns:
T形状为(n_samples, n_classes)的ndarray

返回样本在模型中每个类别的概率。列对应于按属性:term:classes_ 中出现的顺序排序的类别。

Notes

概率模型是使用交叉验证创建的,因此结果可能与通过预测获得的结果略有不同。此外,它会在非常小的数据集上产生无意义的结果。

property probA_#

参数在Platt缩放中学习,当 probability=True 时。

Returns:
形状为 (n_classes * (n_classes - 1) / 2) 的ndarray
property probB_#

参数在Platt缩放中学习,当 probability=True 时。

Returns:
形状为 (n_classes * (n_classes - 1) / 2) 的ndarray
score(X, y, sample_weight=None)#

返回给定测试数据和标签的平均准确率。

在多标签分类中,这是子集准确率,这是一个严格的指标,因为你要求每个样本的每个标签集都被正确预测。

Parameters:
X形状为 (n_samples, n_features) 的类数组

测试样本。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组

` X`的真实标签。

sample_weight形状为 (n_samples,) 的类数组,默认=None

样本权重。

Returns:
scorefloat

self.predict(X) 相对于 y 的平均准确率。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') SVC#

Request metadata passed to the fit method.

Note that this method is only relevant if enable_metadata_routing=True (see sklearn.set_config ). Please see User Guide on how the routing mechanism works.

The options for each parameter are:

  • True : metadata is requested, and passed to fit if provided. The request is ignored if metadata is not provided.

  • False : metadata is not requested and the meta-estimator will not pass it to fit .

  • None : metadata is not requested, and the meta-estimator will raise an error if the user provides it.

  • str : metadata should be passed to the meta-estimator with this given alias instead of the original name.

The default ( sklearn.utils.metadata_routing.UNCHANGED ) retains the existing request. This allows you to change the request for some parameters and not others.

Added in version 1.3.

Note

This method is only relevant if this estimator is used as a sub-estimator of a meta-estimator, e.g. used inside a Pipeline . Otherwise it has no effect.

Parameters:
sample_weightstr, True, False, or None, default=sklearn.utils.metadata_routing.UNCHANGED

Metadata routing for sample_weight parameter in fit .

Returns:
selfobject

The updated object.

set_params(**params)#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(例如 Pipeline )。后者具有形式为 <component>__<parameter> 的参数,以便可以更新嵌套对象的每个组件。

Parameters:
**paramsdict

估计器参数。

Returns:
selfestimator instance

估计器实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') SVC#

Request metadata passed to the score method.

Note that this method is only relevant if enable_metadata_routing=True (see sklearn.set_config ). Please see User Guide on how the routing mechanism works.

The options for each parameter are:

  • True : metadata is requested, and passed to score if provided. The request is ignored if metadata is not provided.

  • False : metadata is not requested and the meta-estimator will not pass it to score .

  • None : metadata is not requested, and the meta-estimator will raise an error if the user provides it.

  • str : metadata should be passed to the meta-estimator with this given alias instead of the original name.

The default ( sklearn.utils.metadata_routing.UNCHANGED ) retains the existing request. This allows you to change the request for some parameters and not others.

Added in version 1.3.

Note

This method is only relevant if this estimator is used as a sub-estimator of a meta-estimator, e.g. used inside a Pipeline . Otherwise it has no effect.

Parameters:
sample_weightstr, True, False, or None, default=sklearn.utils.metadata_routing.UNCHANGED

Metadata routing for sample_weight parameter in score .

Returns:
selfobject

The updated object.