DictionaryLearning#

class sklearn.decomposition.DictionaryLearning(n_components=None, *, alpha=1, max_iter=1000, tol=1e-08, fit_algorithm='lars', transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, n_jobs=None, code_init=None, dict_init=None, callback=None, verbose=False, split_sign=False, random_state=None, positive_code=False, positive_dict=False, transform_max_iter=1000)#

字典学习。

找到一个字典(一组原子),能够很好地稀疏编码拟合的数据。

解决优化问题:

(U^*,V^*) = argmin 0.5 || X - U V ||_Fro^2 + alpha * || U ||_1,1
            (U,V)
            with || V_k ||_2 <= 1 for all  0 <= k < n_components

||.||_Fro 表示 Frobenius 范数,||.||_1,1 表示逐元素矩阵范数,即矩阵中所有元素绝对值之和。

更多信息请参阅 用户指南

Parameters:
n_componentsint, default=None

要提取的字典元素数量。如果为 None,则 n_components 设置为 n_features

alphafloat, default=1.0

稀疏控制参数。

max_iterint, default=1000

要执行的最大迭代次数。

tolfloat, default=1e-8

数值误差的容差。

fit_algorithm{‘lars’, ‘cd’}, default=’lars’
  • 'lars' : 使用最小角回归方法解决 lasso 问题 (lars_path );

  • 'cd' : 使用坐标下降法计算 Lasso 解 (Lasso )。如果估计的组件是稀疏的,Lars 会更快。

Added in version 0.17: cd 坐标下降法以提高速度。

transform_algorithm{‘lasso_lars’, ‘lasso_cd’, ‘lars’, ‘omp’, ‘threshold’}, default=’omp’

用于转换数据的算法:

  • 'lars' : 使用最小角回归方法 (lars_path );

  • 'lasso_lars' : 使用 Lars 计算 Lasso 解。

  • 'lasso_cd' : 使用坐标下降法计算 Lasso 解 (Lasso )。如果估计的组件是稀疏的, 'lasso_lars' 会更快。

  • 'omp' : 使用正交匹配追踪估计稀疏解。

  • 'threshold' : 将投影 dictionary * X' 中小于 alpha 的所有系数压缩为零。

Added in version 0.17: lasso_cd 坐标下降法以提高速度。

transform_n_nonzero_coefsint, default=None

目标在解的每一列中非零系数的数量。这仅在 algorithm='lars'algorithm='omp' 时使用。如果为 None ,则 transform_n_nonzero_coefs=int(n_features / 10)

transform_alphafloat, default=None

如果 algorithm='lasso_lars'algorithm='lasso_cd'alpha 是应用于 L1 范数的惩罚。 如果 algorithm='threshold'alpha 是系数将被压缩为零的阈值的绝对值。 如果为 None ,则默认为 alpha

Changed in version 1.2: 当为 None 时,默认值从 1.0 更改为 alpha

n_jobsint or None, default=None

并行运行的作业数量。 None 表示 1,除非在 joblib.parallel_backend 上下文中。 -1 表示使用所有处理器。有关更多详细信息,请参阅 Glossary

code_initndarray of shape (n_samples, n_components), default=None

代码的初始值,用于热启动。仅在 code_initdict_init 不为 None 时使用。

dict_initndarray of shape (n_components, n_features), default=None

字典的初始值,用于热启动。仅在 code_initdict_init 不为 None 时使用。

callbackcallable, default=None

每五次迭代调用的可调用对象。

Added in version 1.3.

verbosebool, default=False

控制过程的冗长程度。

split_signbool, default=False

是否将稀疏特征向量拆分为其负部分和正部分的连接。这可以提高下游分类器的性能。

random_stateint, RandomState instance or None, default=None

用于在未指定 dict_init 时初始化字典,在 shuffle 设置为 True 时随机打乱数据,以及更新字典。传递一个 int 以在多次函数调用中获得可重复的结果。 请参阅 Glossary

positive_codebool, default=False

在找到代码时是否强制正性。

Added in version 0.20.

positive_dictbool, default=False

在找到字典时是否强制正性。

Added in version 0.20.

transform_max_iterint, default=1000

如果 algorithm='lasso_cd''lasso_lars' ,要执行的最大迭代次数。

Added in version 0.22.

Attributes:
components_ndarray of shape (n_components, n_features)

从数据中提取的字典原子

error_array

每次迭代的误差向量

n_features_in_int

fit 过程中看到的特征数量。

Added in version 0.24.

feature_names_in_ndarray of shape ( n_features_in_ ,)

fit 过程中看到的特征名称。仅当 X 的特征名称均为字符串时定义。

Added in version 1.0.

n_iter_int

运行的迭代次数。

See also

MiniBatchDictionaryLearning

字典学习算法的更快、准确度较低的版本。

MiniBatchSparsePCA

小批量稀疏主成分分析。

SparseCoder

从固定的预计算字典中找到数据的稀疏表示。

SparsePCA

稀疏主成分分析。

References

J. Mairal, F. Bach, J. Ponce, G. Sapiro, 2009: Online dictionary learning for sparse coding (https://www.di.ens.fr/sierra/pdfs/icml09.pdf)

Examples

>>> import numpy as np
>>> from sklearn.datasets import make_sparse_coded_signal
>>> from sklearn.decomposition import DictionaryLearning
>>> X, dictionary, code = make_sparse_coded_signal(
...     n_samples=30, n_components=15, n_features=20, n_nonzero_coefs=10,
...     random_state=42,
... )
>>> dict_learner = DictionaryLearning(
...     n_components=15, transform_algorithm='lasso_lars', transform_alpha=0.1,
...     random_state=42,
... )
>>> X_transformed = dict_learner.fit(X).transform(X)

我们可以检查 X_transformed 的稀疏程度:

>>> np.mean(X_transformed == 0)
0.52...

我们可以比较稀疏编码信号的重构误差的平均平方欧几里得范数与原始信号的平方欧几里得范数:

>>> X_hat = X_transformed @ dict_learner.components_
>>> np.mean(np.sum((X_hat - X) ** 2, axis=1) / np.sum(X ** 2, axis=1))
0.05...
fit(X, y=None)#

拟合从数据X中的模型。

Parameters:
X形状为 (n_samples, n_features) 的类数组

训练向量,其中 n_samples 是样本的数量 且 n_features 是特征的数量。

y忽略

未使用,为了API一致性而存在。

Returns:
selfobject

返回实例本身。

fit_transform(X, y=None)#

拟合从数据X中的模型并返回转换后的数据。

Parameters:
X形状为 (n_samples, n_features) 的类数组

训练向量,其中 n_samples 是样本的数量 且 n_features 是特征的数量。

y忽略

未使用,为保持API一致性而存在。

Returns:
V形状为 (n_samples, n_components) 的 ndarray

转换后的数据。

get_feature_names_out(input_features=None)#

获取转换后的输出特征名称。

输出特征名称将以小写的类名作为前缀。例如,如果转换器输出3个特征,那么输出特征名称将是: ["class_name0", "class_name1", "class_name2"]

Parameters:
input_features类似数组的对象或None,默认为None

仅用于验证特征名称与 fit 中看到的名称。

Returns:
feature_names_outndarray of str对象

转换后的特征名称。

get_metadata_routing()#

获取此对象的元数据路由。

请查看 用户指南 以了解路由机制的工作原理。

Returns:
routingMetadataRequest

MetadataRequest 封装的 路由信息。

get_params(deep=True)#

获取此估计器的参数。

Parameters:
deepbool, 默认=True

如果为True,将返回此估计器和包含的子对象(也是估计器)的参数。

Returns:
paramsdict

参数名称映射到它们的值。

set_output(*, transform=None)#

设置输出容器。

请参阅 介绍 set_output API 以了解如何使用API的示例。

Parameters:
transform{“default”, “pandas”, “polars”}, 默认=None

配置 transformfit_transform 的输出。

  • "default" : 转换器的默认输出格式

  • "pandas" : DataFrame 输出

  • "polars" : Polars 输出

  • None : 转换配置不变

Added in version 1.4: "polars" 选项已添加。

Returns:
self估计器实例

估计器实例。

set_params(**params)#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(例如 Pipeline )。后者具有形式为 <component>__<parameter> 的参数,以便可以更新嵌套对象的每个组件。

Parameters:
**paramsdict

估计器参数。

Returns:
selfestimator instance

估计器实例。

transform(X)#

将数据编码为字典原子的稀疏组合。

编码方法由对象参数 transform_algorithm 决定。

Parameters:
X形状为(n_samples, n_features)的ndarray

要转换的测试数据,必须与用于训练模型的数据具有相同数量的特征。

Returns:
X_new形状为(n_samples, n_components)的ndarray

转换后的数据。