lasso_path#

sklearn.linear_model.lasso_path(X, y, *, eps=0.001, n_alphas=100, alphas=None, precompute='auto', Xy=None, copy_X=True, coef_init=None, verbose=False, return_n_iter=False, positive=False, **params)#

计算Lasso路径使用坐标下降法。

Lasso优化函数对于单输出和多输出任务有所不同。

对于单输出任务,它是:

(1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1

对于多输出任务,它是:

(1 / (2 * n_samples)) * ||Y - XW||^2_Fro + alpha * ||W||_21

其中:

||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}

即每行的范数之和。

更多信息请参阅 用户指南

Parameters:
X{array-like, sparse matrix},形状为 (n_samples, n_features)

训练数据。直接传递为Fortran连续数据以避免不必要的内存复制。如果 y 是单输出,则 X 可以是稀疏的。

y{array-like, sparse matrix},形状为 (n_samples,) 或 (n_samples, n_targets)

目标值。

epsfloat, 默认=1e-3

路径的长度。 eps=1e-3 意味着 alpha_min / alpha_max = 1e-3

n_alphasint, 默认=100

沿正则化路径的alpha数量。

alphasarray-like, 默认=None

计算模型的alpha列表。如果 None ,则自动设置alpha。

precompute‘auto’, bool 或 形状为 (n_features, n_features) 的array-like, 默认=’auto’

是否使用预计算的Gram矩阵以加速计算。如果设置为 'auto' ,则由我们决定。Gram矩阵也可以作为参数传递。

Xy形状为 (n_features,) 或 (n_features, n_targets) 的array-like, 默认=None

Xy = np.dot(X.T, y) 可以预计算。只有在预计算Gram矩阵时才有用。

copy_Xbool, 默认=True

如果 True ,X将被复制;否则,可能会被覆盖。

coef_init形状为 (n_features, ) 的array-like, 默认=None

系数的初始值。

verbosebool 或 int, 默认=False

详细程度。

return_n_iterbool, 默认=False

是否返回迭代次数。

positivebool, 默认=False

如果设置为True,强制系数为正。(仅在 y.ndim == 1 时允许)。

**paramskwargs

传递给坐标下降求解器的关键字参数。

Returns:
alphas形状为 (n_alphas,) 的ndarray

计算模型的alpha路径。

coefs形状为 (n_features, n_alphas) 或 (n_targets, n_features, n_alphas) 的ndarray

沿路径的系数。

dual_gaps形状为 (n_alphas,) 的ndarray

每个alpha优化结束时的对偶间隙。

n_iterslist of int

坐标下降优化器为达到指定容差所需的迭代次数。

See also

lars_path

使用LARS算法计算最小角回归或Lasso路径。

Lasso

Lasso是一个估计稀疏系数的线性模型。

LassoLars

使用最小角回归(又名Lars)拟合的Lasso模型。

LassoCV

沿正则化路径迭代拟合的Lasso线性模型。

LassoLarsCV

使用LARS算法进行交叉验证的Lasso。

sklearn.decomposition.sparse_encode

估计器,可用于将信号转换为固定原子的稀疏线性组合。

Notes

有关示例,请参见 examples/linear_model/plot_lasso_coordinate_descent_path.py

为了避免不必要的内存复制,fit方法的X参数应直接传递为Fortran连续的numpy数组。

请注意,在某些情况下,Lars求解器可能会显著更快地实现此功能。特别是,可以使用线性插值来检索lars_path输出值之间的模型系数。

Examples

比较lasso_path和lars_path与插值:

>>> import numpy as np
>>> from sklearn.linear_model import lasso_path
>>> X = np.array([[1, 2, 3.1], [2.3, 5.4, 4.3]]).T
>>> y = np.array([1, 2, 3.1])
>>> # 使用lasso_path计算系数路径
>>> _, coef_path, _ = lasso_path(X, y, alphas=[5., 1., .5])
>>> print(coef_path)
[[0.         0.         0.46874778]
 [0.2159048  0.4425765  0.23689075]]
>>> # 现在使用lars_path和1D线性插值计算相同的路径
>>> from sklearn.linear_model import lars_path
>>> alphas, active, coef_path_lars = lars_path(X, y, method='lasso')
>>> from scipy import interpolate
>>> coef_path_continuous = interpolate.interp1d(alphas[::-1],
...                                             coef_path_lars[:, ::-1])
>>> print(coef_path_continuous([5., 1., .5]))
[[0.         0.         0.46915237]
 [0.2159048  0.4425765  0.23668876]]