递归特征添加#

class feature_engine.selection.RecursiveFeatureAddition(estimator, scoring='roc_auc', cv=3, groups=None, threshold=0.01, variables=None, confirm_variables=False)[源代码][源代码]#

RecursiveFeatureAddition() 通过递归添加过程选择特征。

流程如下:

  1. 使用所有特征训练一个估计器。

  2. 根据估计器得出的重要性对特征进行排序。

  3. 用最重要的特征训练一个估计器并确定其性能。

  4. 添加第二重要的功能并训练一个新的估计器。

  5. 计算估计器之间的性能差异。

  6. 如果性能提升超过阈值,则保留该功能。

  7. 重复步骤4-6,直到所有功能都被评估。

模型训练和性能计算通过交叉验证完成。

更多详情请参阅 用户指南

参数
估计器: 对象

一个用于回归或分类的 Scikit-learn 估计器。估计器在拟合后必须具有 feature_importancescoef_ 属性。

变量: str 或 list, 默认=None

要评估的变量列表。如果为 None,转换器将评估数据集中所有数值特征。

scoring: str, default=’roc_auc’

用于评估估计器性能的指标。来自 sklearn.metrics。更多选项请参阅模型评估文档:https://scikit-learn.org/stable/modules/model_evaluation.html

threshold: float, int, default = 0.01

定义特征是否被选择的值。请注意,对于像 roc-auc、r2 和准确率这样的指标,阈值将是一个介于 0 和 1 之间的浮点数。对于像均方误差和均方根误差这样的指标,阈值可以是任何数值。阈值必须由用户定义。阈值越大,选择的特征越少。

cv: int, 交叉验证生成器或可迭代对象, 默认=3

确定交叉验证的分割策略。cv 的可能输入包括:

对于int/None输入,如果估计器是分类器且y是二分类或多分类,则使用StratifiedKFold。在所有其他情况下,使用KFold。这些分割器以`shuffle=False`实例化,因此分割将在多次调用中保持一致。更多详情请查看Scikit-learn的`cross_validate`文档。

groups: 形状为 (n_样本,) 的类数组, 默认=None

在将数据集划分为训练/测试集时使用的样本的组标签。仅在与“Group” cv 实例(例如,GroupKFold)结合使用时使用。

confirm_variables: bool, default=False

如果设置为 True,输入数据框中不存在的变量将从变量列表中移除。仅在使用变量列表传递给参数 variables 时使用。有关更多详细信息,请参见参数 variables。

属性
initial_model_performance_:

使用原始数据集训练时模型的性能。

feature_importances_:

包含特征重要性的 Pandas Series(来自步骤2)

feature_importances_std_:

具有特征重要性标准差的 Pandas Series。

性能漂移_

包含每个检查特征的性能漂移的字典(来自步骤5)。

performance_drifts_std_:

包含所检查特征性能漂移标准偏差的字典(来自步骤5)。

features_to_drop_:

列出将被移除的功能。

变量_

特征选择过程中将考虑的变量。

feature_names_in_:

列出在 fit 过程中看到的特征名称。

n_features_in_:

在拟合中使用的训练集中的特征数量。

示例

>>> import pandas as pd
>>> from sklearn.ensemble import RandomForestClassifier
>>> from feature_engine.selection import RecursiveFeatureAddition
>>> X = pd.DataFrame(dict(x1 = [1000,2000,1000,1000,2000,3000],
>>>                     x2 = [2,4,3,1,2,2],
>>>                     x3 = [1,1,1,0,0,0],
>>>                     x4 = [1,2,1,1,0,1],
>>>                     x5 = [1,1,1,1,1,1]))
>>> y = pd.Series([1,0,0,1,1,0])
>>> rfa = RecursiveFeatureAddition(RandomForestClassifier(random_state=42), cv=2)
>>> rfa.fit_transform(X, y)
   x2  x4
0   2   1
1   4   2
2   3   1
3   1   1
4   2   0
5   2   1

方法

拟合:

找到重要的功能。

fit_transform:

拟合数据,然后进行转换。

get_feature_names_out:

获取转换后的输出特征名称。

get_params:

获取此估计器的参数。

设置参数:

设置此估计器的参数。

获取支持:

获取所选特征的掩码或整数索引。

变换:

将 X 减少到选定的特征。

fit(X, y)[源代码][源代码]#

找到重要的特征。注意,选择器在每一轮选择中训练多种模型,因此可能需要一些时间。

参数
X: pandas 数据框,形状为 = [样本数, 特征数]

输入数据框

y: 形状为 (n_samples) 的类数组对象

目标变量。训练估计器时必需。

fit_transform(X, y=None, **fit_params)[源代码]#

拟合数据,然后进行转换。

使用可选参数 fit_params 将转换器拟合到 Xy,并返回 X 的转换版本。

参数
X类似数组的形状 (n_samples, n_features)

输入样本。

y类数组的形状为 (n_samples,) 或 (n_samples, n_outputs),默认=None

目标值(无监督转换为None)。

**拟合参数dict

附加拟合参数。

返回
X_newndarray 数组,形状为 (n_samples, n_features_new)

转换后的数组。

get_feature_names_out(input_features=None)[源代码]#

获取转换后的输出特征名称。换句话说,返回转换后的数据框的变量名称。

参数
input_features数组或列表,默认=None

此参数仅为了与 Scikit-learn 管道兼容而存在。

  • 如果 None,则使用 feature_names_in_ 作为特征名称。

  • 如果是一个数组或列表,那么 input_features 必须与 feature_names_in_ 匹配。

返回
feature_names_out: 列表

转换后的特征名称。

rtype

List[Union[str, int]] ..

get_metadata_routing()[源代码]#

获取此对象的元数据路由。

请查看 用户指南 以了解路由机制的工作原理。

返回
路由MetadataRequest

一个封装了路由信息的 MetadataRequest

get_params(deep=True)[源代码]#

获取此估计器的参数。

参数
深度bool, 默认=True

如果为真,将返回此估计器及其包含的作为估计器的子对象的参数。

返回
参数dict

参数名称映射到它们的值。

get_support(indices=False)[源代码]#

获取所选特征的掩码或整数索引。

参数
索引bool, 默认=False

如果为真,返回值将是一个整数数组,而不是布尔掩码。

返回
支持数组

一个从特征向量中选择保留特征的索引。如果 indices 为 False,这是一个形状为 [# 输入特征] 的布尔数组,其中元素为 True 表示其对应的特征被选择保留。如果 indices 为 True,这是一个形状为 [# 输出特征] 的整数数组,其值为输入特征向量中的索引。

set_params(**params)[源代码]#

设置此估计器的参数。

该方法适用于简单的估计器以及嵌套对象(如 Pipeline)。后者具有形式为 <component>__<parameter> 的参数,因此可以更新嵌套对象的每个组件。

参数
**参数dict

估计器参数。

返回
self估计器实例

估计器实例。

transform(X)[源代码]#

返回包含所选特征的数据框。

参数
X: pandas 数据框,形状为 [n_samples, n_features]。

输入的数据框。

返回
X_new: 形状为 [n_samples, n_selected_features] 的 pandas dataframe

包含所选特征的 Pandas 数据框。

rtype

DataFrame ..