l1_min_c#

sklearn.svm.l1_min_c(X, y, *, loss='squared_hinge', fit_intercept=True, intercept_scaling=1.0)#

返回C的最低边界。

C的最低边界是这样计算的,使得对于C在(l1_min_C, 无穷大)范围内,模型保证不会为空。这适用于l1正则化的分类器,例如penalty=’l1’的LinearSVC和penalty=’l1’的linear_model.LogisticRegression。

如果fit()中的class_weight参数未设置,则此值有效。

Parameters:
X{array-like, sparse matrix},形状为(n_samples, n_features)

训练向量,其中 n_samples 是样本数量, n_features 是特征数量。

yarray-like,形状为(n_samples,)

相对于X的目标向量。

loss{‘squared_hinge’, ‘log’},默认=’squared_hinge’

指定损失函数。 使用’squared_hinge’时,它是平方合页损失(又名L2损失)。 使用’log’时,它是逻辑回归模型的损失。

fit_interceptbool,默认=True

指定模型是否应拟合截距。 它必须与fit()方法参数匹配。

intercept_scalingfloat,默认=1.0

当fit_intercept为True时,实例向量x变为 [x, intercept_scaling], 即一个常数值等于intercept_scaling的“合成”特征被附加到实例向量中。 它必须与fit()方法参数匹配。

Returns:
l1_min_cfloat

C的最小值。

Examples

>>> from sklearn.svm import l1_min_c
>>> from sklearn.datasets import make_classification
>>> X, y = make_classification(n_samples=100, n_features=20, random_state=42)
>>> print(f"{l1_min_c(X, y, loss='squared_hinge', fit_intercept=True):.4f}")
0.0044