l1_min_c#
- sklearn.svm.l1_min_c(X, y, *, loss='squared_hinge', fit_intercept=True, intercept_scaling=1.0)#
返回C的最低边界。
C的最低边界是这样计算的,使得对于C在(l1_min_C, 无穷大)范围内,模型保证不会为空。这适用于l1正则化的分类器,例如penalty=’l1’的LinearSVC和penalty=’l1’的linear_model.LogisticRegression。
如果fit()中的class_weight参数未设置,则此值有效。
- Parameters:
- X{array-like, sparse matrix},形状为(n_samples, n_features)
训练向量,其中
n_samples
是样本数量,n_features
是特征数量。- yarray-like,形状为(n_samples,)
相对于X的目标向量。
- loss{‘squared_hinge’, ‘log’},默认=’squared_hinge’
指定损失函数。 使用’squared_hinge’时,它是平方合页损失(又名L2损失)。 使用’log’时,它是逻辑回归模型的损失。
- fit_interceptbool,默认=True
指定模型是否应拟合截距。 它必须与fit()方法参数匹配。
- intercept_scalingfloat,默认=1.0
当fit_intercept为True时,实例向量x变为 [x, intercept_scaling], 即一个常数值等于intercept_scaling的“合成”特征被附加到实例向量中。 它必须与fit()方法参数匹配。
- Returns:
- l1_min_cfloat
C的最小值。
Examples
>>> from sklearn.svm import l1_min_c >>> from sklearn.datasets import make_classification >>> X, y = make_classification(n_samples=100, n_features=20, random_state=42) >>> print(f"{l1_min_c(X, y, loss='squared_hinge', fit_intercept=True):.4f}") 0.0044
Gallery examples#
L1-正则化路径的逻辑回归