DictionaryLearning#
- class sklearn.decomposition.DictionaryLearning(n_components=None, *, alpha=1, max_iter=1000, tol=1e-08, fit_algorithm='lars', transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, n_jobs=None, code_init=None, dict_init=None, callback=None, verbose=False, split_sign=False, random_state=None, positive_code=False, positive_dict=False, transform_max_iter=1000)#
字典学习。
找到一个字典(一组原子),能够很好地稀疏编码拟合的数据。
解决优化问题:
(U^*,V^*) = argmin 0.5 || X - U V ||_Fro^2 + alpha * || U ||_1,1 (U,V) with || V_k ||_2 <= 1 for all 0 <= k < n_components
||.||_Fro 表示 Frobenius 范数,||.||_1,1 表示逐元素矩阵范数,即矩阵中所有元素绝对值之和。
更多信息请参阅 用户指南 。
- Parameters:
- n_componentsint, default=None
要提取的字典元素数量。如果为 None,则
n_components
设置为n_features
。- alphafloat, default=1.0
稀疏控制参数。
- max_iterint, default=1000
要执行的最大迭代次数。
- tolfloat, default=1e-8
数值误差的容差。
- fit_algorithm{‘lars’, ‘cd’}, default=’lars’
-
Added in version 0.17: cd 坐标下降法以提高速度。
- transform_algorithm{‘lasso_lars’, ‘lasso_cd’, ‘lars’, ‘omp’, ‘threshold’}, default=’omp’
用于转换数据的算法:
'lars'
: 使用最小角回归方法 (lars_path
);'lasso_lars'
: 使用 Lars 计算 Lasso 解。'lasso_cd'
: 使用坐标下降法计算 Lasso 解 (Lasso
)。如果估计的组件是稀疏的,'lasso_lars'
会更快。'omp'
: 使用正交匹配追踪估计稀疏解。'threshold'
: 将投影dictionary * X'
中小于 alpha 的所有系数压缩为零。
Added in version 0.17: lasso_cd 坐标下降法以提高速度。
- transform_n_nonzero_coefsint, default=None
目标在解的每一列中非零系数的数量。这仅在
algorithm='lars'
和algorithm='omp'
时使用。如果为None
,则transform_n_nonzero_coefs=int(n_features / 10)
。- transform_alphafloat, default=None
如果
algorithm='lasso_lars'
或algorithm='lasso_cd'
,alpha
是应用于 L1 范数的惩罚。 如果algorithm='threshold'
,alpha
是系数将被压缩为零的阈值的绝对值。 如果为None
,则默认为alpha
。Changed in version 1.2: 当为 None 时,默认值从 1.0 更改为
alpha
。- n_jobsint or None, default=None
并行运行的作业数量。
None
表示 1,除非在joblib.parallel_backend
上下文中。-1
表示使用所有处理器。有关更多详细信息,请参阅 Glossary 。- code_initndarray of shape (n_samples, n_components), default=None
代码的初始值,用于热启动。仅在
code_init
和dict_init
不为 None 时使用。- dict_initndarray of shape (n_components, n_features), default=None
字典的初始值,用于热启动。仅在
code_init
和dict_init
不为 None 时使用。- callbackcallable, default=None
每五次迭代调用的可调用对象。
Added in version 1.3.
- verbosebool, default=False
控制过程的冗长程度。
- split_signbool, default=False
是否将稀疏特征向量拆分为其负部分和正部分的连接。这可以提高下游分类器的性能。
- random_stateint, RandomState instance or None, default=None
用于在未指定
dict_init
时初始化字典,在shuffle
设置为True
时随机打乱数据,以及更新字典。传递一个 int 以在多次函数调用中获得可重复的结果。 请参阅 Glossary 。- positive_codebool, default=False
在找到代码时是否强制正性。
Added in version 0.20.
- positive_dictbool, default=False
在找到字典时是否强制正性。
Added in version 0.20.
- transform_max_iterint, default=1000
如果
algorithm='lasso_cd'
或'lasso_lars'
,要执行的最大迭代次数。Added in version 0.22.
- Attributes:
See also
MiniBatchDictionaryLearning
字典学习算法的更快、准确度较低的版本。
MiniBatchSparsePCA
小批量稀疏主成分分析。
SparseCoder
从固定的预计算字典中找到数据的稀疏表示。
SparsePCA
稀疏主成分分析。
References
J. Mairal, F. Bach, J. Ponce, G. Sapiro, 2009: Online dictionary learning for sparse coding (https://www.di.ens.fr/sierra/pdfs/icml09.pdf)
Examples
>>> import numpy as np >>> from sklearn.datasets import make_sparse_coded_signal >>> from sklearn.decomposition import DictionaryLearning >>> X, dictionary, code = make_sparse_coded_signal( ... n_samples=30, n_components=15, n_features=20, n_nonzero_coefs=10, ... random_state=42, ... ) >>> dict_learner = DictionaryLearning( ... n_components=15, transform_algorithm='lasso_lars', transform_alpha=0.1, ... random_state=42, ... ) >>> X_transformed = dict_learner.fit(X).transform(X)
我们可以检查
X_transformed
的稀疏程度:>>> np.mean(X_transformed == 0) 0.52...
我们可以比较稀疏编码信号的重构误差的平均平方欧几里得范数与原始信号的平方欧几里得范数:
>>> X_hat = X_transformed @ dict_learner.components_ >>> np.mean(np.sum((X_hat - X) ** 2, axis=1) / np.sum(X ** 2, axis=1)) 0.05...
- fit(X, y=None)#
拟合从数据X中的模型。
- Parameters:
- X形状为 (n_samples, n_features) 的类数组
训练向量,其中
n_samples
是样本的数量 且n_features
是特征的数量。- y忽略
未使用,为了API一致性而存在。
- Returns:
- selfobject
返回实例本身。
- fit_transform(X, y=None)#
拟合从数据X中的模型并返回转换后的数据。
- Parameters:
- X形状为 (n_samples, n_features) 的类数组
训练向量,其中
n_samples
是样本的数量 且n_features
是特征的数量。- y忽略
未使用,为保持API一致性而存在。
- Returns:
- V形状为 (n_samples, n_components) 的 ndarray
转换后的数据。
- get_feature_names_out(input_features=None)#
获取转换后的输出特征名称。
输出特征名称将以小写的类名作为前缀。例如,如果转换器输出3个特征,那么输出特征名称将是:
["class_name0", "class_name1", "class_name2"]
。- Parameters:
- input_features类似数组的对象或None,默认为None
仅用于验证特征名称与
fit
中看到的名称。
- Returns:
- feature_names_outndarray of str对象
转换后的特征名称。
- get_metadata_routing()#
获取此对象的元数据路由。
请查看 用户指南 以了解路由机制的工作原理。
- Returns:
- routingMetadataRequest
MetadataRequest
封装的 路由信息。
- get_params(deep=True)#
获取此估计器的参数。
- Parameters:
- deepbool, 默认=True
如果为True,将返回此估计器和包含的子对象(也是估计器)的参数。
- Returns:
- paramsdict
参数名称映射到它们的值。
- set_output(*, transform=None)#
设置输出容器。
请参阅 介绍 set_output API 以了解如何使用API的示例。
- Parameters:
- transform{“default”, “pandas”, “polars”}, 默认=None
配置
transform
和fit_transform
的输出。"default"
: 转换器的默认输出格式"pandas"
: DataFrame 输出"polars"
: Polars 输出None
: 转换配置不变
Added in version 1.4:
"polars"
选项已添加。
- Returns:
- self估计器实例
估计器实例。
- set_params(**params)#
设置此估计器的参数。
该方法适用于简单估计器以及嵌套对象(例如
Pipeline
)。后者具有形式为<component>__<parameter>
的参数,以便可以更新嵌套对象的每个组件。- Parameters:
- **paramsdict
估计器参数。
- Returns:
- selfestimator instance
估计器实例。
- transform(X)#
将数据编码为字典原子的稀疏组合。
编码方法由对象参数
transform_algorithm
决定。- Parameters:
- X形状为(n_samples, n_features)的ndarray
要转换的测试数据,必须与用于训练模型的数据具有相同数量的特征。
- Returns:
- X_new形状为(n_samples, n_components)的ndarray
转换后的数据。