SparseCoder#
- class sklearn.decomposition.SparseCoder(dictionary, *, transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, split_sign=False, n_jobs=None, positive_code=False, transform_max_iter=1000)#
稀疏编码。
找到一个针对预先计算好的固定字典的数据的稀疏表示。
结果的每一行都是一个稀疏编码问题的解。目标是找到一个稀疏数组
code
,使得:X ~= code * dictionary
更多信息请参阅 用户指南 。
- Parameters:
- dictionaryndarray of shape (n_components, n_features)
用于稀疏编码的字典原子。假设各行已归一化到单位范数。
- transform_algorithm{‘lasso_lars’, ‘lasso_cd’, ‘lars’, ‘omp’, ‘threshold’}, default=’omp’
用于转换数据的算法:
'lars'
: 使用最小角回归方法 (linear_model.lars_path
);'lasso_lars'
: 使用 Lars 计算 Lasso 解;'lasso_cd'
: 使用坐标下降法计算 Lasso 解 (linear_model.Lasso)。如果估计的成分是稀疏的,'lasso_lars'
会更快;'omp'
: 使用正交匹配追踪估计稀疏解;'threshold'
: 将投影dictionary * X'
中小于 alpha 的所有系数压缩到零。
- transform_n_nonzero_coefsint, default=None
目标在解的每一列中非零系数的数量。这仅在
algorithm='lars'
和algorithm='omp'
时使用,并且在omp
情况下被alpha
覆盖。如果为None
,则transform_n_nonzero_coefs=int(n_features / 10)
。- transform_alphafloat, default=None
如果
algorithm='lasso_lars'
或algorithm='lasso_cd'
,alpha
是应用于 L1 范数的惩罚。 如果algorithm='threshold'
,alpha
是系数将被压缩到零的阈值的绝对值。 如果algorithm='omp'
,alpha
是容差参数:目标的重建误差值。在这种情况下,它会覆盖n_nonzero_coefs
。 如果为None
,默认值为 1。- split_signbool, default=False
是否将稀疏特征向量拆分为其负部分和正部分的连接。这可以提高下游分类器的性能。
- n_jobsint, default=None
并行运行的作业数。
None
意味着 1,除非在joblib.parallel_backend
上下文中。-1
意味着使用所有处理器。更多细节请参阅 Glossary 。- positive_codebool, default=False
在寻找编码时是否强制正性。
Added in version 0.20.
- transform_max_iterint, default=1000
如果
algorithm='lasso_cd'
或lasso_lars
,执行的最大迭代次数。Added in version 0.22.
- Attributes:
n_components_
int原子数量。
n_features_in_
int在
fit
期间看到的特征数量。- feature_names_in_ndarray of shape (
n_features_in_
,) 在 fit 过程中看到的特征名称。仅当
X
的特征名称均为字符串时定义。Added in version 1.0.
See also
DictionaryLearning
找到一个稀疏编码数据的字典。
MiniBatchDictionaryLearning
一个更快、准确度较低的字典学习算法版本。
MiniBatchSparsePCA
小批量稀疏主成分分析。
SparsePCA
稀疏主成分分析。
sparse_encode
稀疏编码,其中结果的每一行都是一个稀疏编码问题的解。
Examples
>>> import numpy as np >>> from sklearn.decomposition import SparseCoder >>> X = np.array([[-1, -1, -1], [0, 0, 3]]) >>> dictionary = np.array( ... [[0, 1, 0], ... [-1, -1, 2], ... [1, 1, 1], ... [0, 1, 1], ... [0, 2, 1]], ... dtype=np.float64 ... ) >>> coder = SparseCoder( ... dictionary=dictionary, transform_algorithm='lasso_lars', ... transform_alpha=1e-10, ... ) >>> coder.transform(X) array([[ 0., 0., -1., 0., 0.], [ 0., 1., 1., 0., 0.]])
- fit(X, y=None)#
Do nothing and return the estimator unchanged.
这个方法只是为了实现常规的API,因此可以在流水线中工作。
- Parameters:
- X忽略
不使用,按惯例为API一致性而存在。
- y忽略
不使用,按惯例为API一致性而存在。
- Returns:
- self对象
返回实例本身。
- fit_transform(X, y=None, **fit_params)#
拟合数据,然后进行转换。
将转换器拟合到
X
和y
,并带有可选参数fit_params
, 并返回X
的转换版本。- Parameters:
- X形状为 (n_samples, n_features) 的类数组
输入样本。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组, 默认=None
目标值(无监督转换为 None)。
- **fit_paramsdict
其他拟合参数。
- Returns:
- X_new形状为 (n_samples, n_features_new) 的 ndarray 数组
转换后的数组。
- get_feature_names_out(input_features=None)#
获取转换后的输出特征名称。
输出特征名称将以小写的类名作为前缀。例如,如果转换器输出3个特征,那么输出特征名称将是:
["class_name0", "class_name1", "class_name2"]
。- Parameters:
- input_features类似数组的对象或None,默认为None
仅用于验证特征名称与
fit
中看到的名称。
- Returns:
- feature_names_outndarray of str对象
转换后的特征名称。
- get_metadata_routing()#
获取此对象的元数据路由。
请查看 用户指南 以了解路由机制的工作原理。
- Returns:
- routingMetadataRequest
MetadataRequest
封装的 路由信息。
- get_params(deep=True)#
获取此估计器的参数。
- Parameters:
- deepbool, 默认=True
如果为True,将返回此估计器和包含的子对象(也是估计器)的参数。
- Returns:
- paramsdict
参数名称映射到它们的值。
- property n_components_#
原子数量。
- property n_features_in_#
在
fit
期间看到的特征数量。
- set_output(*, transform=None)#
设置输出容器。
请参阅 介绍 set_output API 以了解如何使用API的示例。
- Parameters:
- transform{“default”, “pandas”, “polars”}, 默认=None
配置
transform
和fit_transform
的输出。"default"
: 转换器的默认输出格式"pandas"
: DataFrame 输出"polars"
: Polars 输出None
: 转换配置不变
Added in version 1.4:
"polars"
选项已添加。
- Returns:
- self估计器实例
估计器实例。
- set_params(**params)#
设置此估计器的参数。
该方法适用于简单估计器以及嵌套对象(例如
Pipeline
)。后者具有形式为<component>__<parameter>
的参数,以便可以更新嵌套对象的每个组件。- Parameters:
- **paramsdict
估计器参数。
- Returns:
- selfestimator instance
估计器实例。
- transform(X, y=None)#
将数据编码为字典原子的稀疏组合。
编码方法由对象参数
transform_algorithm
决定。- Parameters:
- Xndarray,形状为 (n_samples, n_features)
训练向量,其中
n_samples
是样本数量 且n_features
是特征数量。- y忽略
不使用,为了保持API一致性而存在。
- Returns:
- X_newndarray,形状为 (n_samples, n_components)
转换后的数据。