LatentDirichletAllocation#

class sklearn.decomposition.LatentDirichletAllocation(n_components=10, *, doc_topic_prior=None, topic_word_prior=None, learning_method='batch', learning_decay=0.7, learning_offset=10.0, max_iter=10, batch_size=128, evaluate_every=-1, total_samples=1000000.0, perp_tol=0.1, mean_change_tol=0.001, max_doc_update_iter=100, n_jobs=None, verbose=0, random_state=None)#

潜在狄利克雷分配与在线变分贝叶斯算法。

该实现基于[Re25e5648fc37-1]_和[Re25e5648fc37-2]_。

Added in version 0.17.

更多信息请参阅 用户指南

Parameters:
n_componentsint, default=10

主题数量。

Changed in version 0.19: n_topics 被重命名为 n_components

doc_topic_priorfloat, default=None

文档主题分布 theta 的先验。如果该值为 None,则默认为 1 / n_components 。 在 [1] 中,这被称为 alpha

topic_word_priorfloat, default=None

主题词分布 beta 的先验。如果该值为 None,则默认为 1 / n_components 。 在 [1] 中,这被称为 eta

learning_method{‘batch’, ‘online’}, default=’batch’

用于更新 _component 的方法。仅在 fit 方法中使用。 一般来说,如果数据量较大,在线更新会比批量更新快得多。

有效选项:

'batch': 批量变分贝叶斯方法。在每次 EM 更新中使用所有训练数据。
    每次迭代中会覆盖旧的 `components_` 。
'online': 在线变分贝叶斯方法。在每次 EM 更新中,使用训练数据的小批量来逐步更新 ``components_`` 变量。
    学习率由 ``learning_decay`` 和 ``learning_offset`` 参数控制。

Changed in version 0.20: 默认学习方法现在是 "batch"

learning_decayfloat, default=0.7

控制在线学习方法中学习率的参数。该值应设置在 (0.5, 1.0] 之间以保证渐近收敛。 当该值为 0.0 且 batch_size 为 n_samples 时,更新方法与批量学习相同。 在文献中,这被称为 kappa。

learning_offsetfloat, default=10.0

在线学习中对早期迭代进行降权的正参数。它应大于 1.0。 在文献中,这被称为 tau_0。

max_iterint, default=10

训练数据的最大遍历次数(即 epochs)。 它仅影响 fit 方法的行为,不影响 partial_fit 方法。

batch_sizeint, default=128

每次 EM 迭代中使用的文档数量。仅在在线学习中使用。

evaluate_everyint, default=-1

评估困惑度的频率。仅在 fit 方法中使用。 将其设置为 0 或负数以不在训练过程中评估困惑度。 评估困惑度可以帮助您检查训练过程中的收敛情况,但也会增加总的训练时间。 在每次迭代中评估困惑度可能会使训练时间增加一倍。

total_samplesint, default=1e6

文档总数。仅在 partial_fit 方法中使用。

perp_tolfloat, default=1e-1

困惑度容忍度。仅在 evaluate_every 大于 0 时使用。

mean_change_tolfloat, default=1e-3

在 E-step 中更新文档主题分布的停止容忍度。

max_doc_update_iterint, default=100

E-step 中更新文档主题分布的最大迭代次数。

n_jobsint, default=None

在 E-step 中使用的作业数量。 None 表示 1,除非在 joblib.parallel_backend 上下文中。 -1 表示使用所有处理器。更多详情请参阅 术语表

verboseint, default=0

详细程度。

random_stateint, RandomState 实例或 None, default=None

传递一个 int 以在多次函数调用中获得可重复的结果。 更多详情请参阅 术语表

Attributes:
components_ndarray of shape (n_components, n_features)

主题词分布的变分参数。由于主题词分布的完全条件是狄利克雷分布, components_[i, j] 可以被视为表示词 j 被分配给主题 i 的次数的伪计数。 它也可以被视为每个主题的词分布在归一化后的分布: model.components_ / model.components_.sum(axis=1)[:, np.newaxis]

exp_dirichlet_component_ndarray of shape (n_components, n_features)

对数主题词分布期望的指数值。 在文献中,这被称为 exp(E[log(beta)])

n_batch_iter_int

EM 步骤的迭代次数。

n_features_in_int

fit 过程中看到的特征数量。

Added in version 0.24.

feature_names_in_ndarray of shape ( n_features_in_ ,)

fit 过程中看到的特征名称。仅当 X 的特征名称均为字符串时定义。

Added in version 1.0.

n_iter_int

数据集的遍历次数。

bound_float

训练集上的最终困惑度得分。

doc_topic_prior_float

文档主题分布 theta 的先验。如果该值为 None,则为 1 / n_components

random_state_RandomState 实例

生成的 RandomState 实例,可以是来自种子、随机数生成器或 np.random

topic_word_prior_float

主题词分布 beta 的先验。如果该值为 None,则为 1 / n_components

See also

sklearn.discriminant_analysis.LinearDiscriminantAnalysis

一种具有线性决策边界的分类器,通过拟合类条件密度到数据并使用贝叶斯规则生成。

References

[1] (1,2)

“Online Learning for Latent Dirichlet Allocation”, Matthew D. Hoffman, David M. Blei, Francis Bach, 2010 blei-lab/onlineldavb

[2]

“Stochastic Variational Inference”, Matthew D. Hoffman, David M. Blei, Chong Wang, John Paisley, 2013

Examples

>>> from sklearn.decomposition import LatentDirichletAllocation
>>> from sklearn.datasets import make_multilabel_classification
>>> # 这将生成一个词频特征矩阵,类似于
>>> # CountVectorizer 在文本上的输出。
>>> X, _ = make_multilabel_classification(random_state=0)
>>> lda = LatentDirichletAllocation(n_components=5,
...     random_state=0)
>>> lda.fit(X)
LatentDirichletAllocation(...)
>>> # 获取某些样本的主题:
>>> lda.transform(X[-2:])
array([[0.00360392, 0.25499205, 0.0036211 , 0.64236448, 0.09541846],
       [0.15297572, 0.00362644, 0.44412786, 0.39568399, 0.003586  ]])
fit(X, y=None)#

使用变分贝叶斯方法对数据X进行模型训练。

learning_method 为’online’时,使用小批量更新。 否则,使用批量更新。

Parameters:
X{类数组,稀疏矩阵},形状为(n_samples, n_features)

文档词矩阵。

y被忽略

不使用,按惯例在此处存在以保持API一致性。

Returns:
self

拟合的估计器。

fit_transform(X, y=None, **fit_params)#

拟合数据,然后进行转换。

将转换器拟合到 Xy ,并带有可选参数 fit_params , 并返回 X 的转换版本。

Parameters:
X形状为 (n_samples, n_features) 的类数组

输入样本。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组, 默认=None

目标值(无监督转换为 None)。

**fit_paramsdict

其他拟合参数。

Returns:
X_new形状为 (n_samples, n_features_new) 的 ndarray 数组

转换后的数组。

get_feature_names_out(input_features=None)#

获取转换后的输出特征名称。

输出特征名称将以小写的类名作为前缀。例如,如果转换器输出3个特征,那么输出特征名称将是: ["class_name0", "class_name1", "class_name2"]

Parameters:
input_features类似数组的对象或None,默认为None

仅用于验证特征名称与 fit 中看到的名称。

Returns:
feature_names_outndarray of str对象

转换后的特征名称。

get_metadata_routing()#

获取此对象的元数据路由。

请查看 用户指南 以了解路由机制的工作原理。

Returns:
routingMetadataRequest

MetadataRequest 封装的 路由信息。

get_params(deep=True)#

获取此估计器的参数。

Parameters:
deepbool, 默认=True

如果为True,将返回此估计器和包含的子对象(也是估计器)的参数。

Returns:
paramsdict

参数名称映射到它们的值。

partial_fit(X, y=None)#

在线 VB 使用小批量更新。

Parameters:
X{array-like, sparse matrix},形状为 (n_samples, n_features)

文档词矩阵。

y忽略

未使用,此处存在是为了通过约定保持 API 一致性。

Returns:
self

部分拟合的估计器。

perplexity(X, sub_sampling=False)#

计算数据 X 的近似困惑度。

困惑度定义为 exp(-1. * 每词的对数似然)

Changed in version 0.19: doc_topic_distr 参数已被弃用且被忽略,因为用户不再能够访问未归一化的分布

Parameters:
X{array-like, sparse matrix} of shape (n_samples, n_features)

文档词矩阵。

sub_samplingbool

是否进行子采样。

Returns:
scorefloat

困惑度得分。

score(X, y=None)#

计算近似对数似然作为分数。

Parameters:
X{array-like, sparse matrix} of shape (n_samples, n_features)

文档词矩阵。

yIgnored

未使用,此处仅为遵循API一致性。

Returns:
scorefloat

使用近似边界作为分数。

set_output(*, transform=None)#

设置输出容器。

请参阅 介绍 set_output API 以了解如何使用API的示例。

Parameters:
transform{“default”, “pandas”, “polars”}, 默认=None

配置 transformfit_transform 的输出。

  • "default" : 转换器的默认输出格式

  • "pandas" : DataFrame 输出

  • "polars" : Polars 输出

  • None : 转换配置不变

Added in version 1.4: "polars" 选项已添加。

Returns:
self估计器实例

估计器实例。

set_params(**params)#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(例如 Pipeline )。后者具有形式为 <component>__<parameter> 的参数,以便可以更新嵌套对象的每个组件。

Parameters:
**paramsdict

估计器参数。

Returns:
selfestimator instance

估计器实例。

transform(X)#

根据拟合的模型转换数据X。

Changed in version 0.18: doc_topic_distr 现在已归一化

Parameters:
X{array-like, sparse matrix} of shape (n_samples, n_features)

文档词矩阵。

Returns:
doc_topic_distrndarray of shape (n_samples, n_components)

X的文档主题分布。