SelectBySingleFeaturePerformance#

class feature_engine.selection.SelectBySingleFeaturePerformance(estimator, scoring='roc_auc', cv=3, groups=None, threshold=None, variables=None, confirm_variables=False)[源代码][源代码]#

SelectBySingleFeaturePerformance() 根据利用单一特征训练的机器学习模型的性能来选择特征。换句话说,它为每个单一特征训练一个机器学习模型,然后确定每个模型的性能。如果模型的性能高于用户指定的阈值,则保留该特征,否则移除。

模型使用交叉验证在每个单独的特征上进行训练。评估性能指标和要训练的机器学习模型由用户指定。

更多详情请参阅 用户指南

参数
估计器: 对象

一个用于回归或分类的 Scikit-learn 估计器。

变量: str 或 list, 默认=None

要评估的变量列表。如果为 None,转换器将评估数据集中所有数值特征。

scoring: str, 默认=’roc_auc’

用于评估估计器性能的指标。来自 sklearn.metrics。更多选项请参阅模型评估文档:https://scikit-learn.org/stable/modules/model_evaluation.html

threshold: float, int, default = 0.01

定义特征是否被选择的值。注意,对于像 roc-auc、r2 和准确率这样的指标,阈值将是一个介于 0 和 1 之间的浮点数。对于像均方误差和均方根误差这样的指标,阈值可以是任何数值。阈值必须由用户定义。阈值越大,选择的特征越少。

cv: int, 交叉验证生成器或可迭代对象, 默认=3

确定交叉验证的分割策略。cv 的可能输入包括:

对于int/None输入,如果估计器是分类器且y是二分类或多分类,则使用StratifiedKFold。在所有其他情况下,使用KFold。这些分割器以`shuffle=False`实例化,因此分割将在多次调用中保持一致。有关更多详细信息,请查看Scikit-learn的`cross_validate`文档。

groups: 形状为 (n_样本,) 的类数组, 默认=None

用于在将数据集划分为训练/测试集时使用的样本的组标签。仅在与“Group” cv 实例(例如,GroupKFold)结合使用时使用。

confirm_variables: bool, default=False

如果设置为 True,输入数据框中不存在的变量将从变量列表中移除。仅在向参数 variables 传递变量列表时使用。更多详情请参见参数 variables。

属性
features_to_drop_:

列出将被移除的功能。

功能_性能_:

包含每个特征的单一特征模型性能的字典。

feature_performance_std_:

包含单特征模型性能标准差的字典。

变量_

特征选择过程中将考虑的变量。

feature_names_in_:

列出在 fit 过程中看到的特征名称。

n_features_in_:

在拟合过程中使用的训练集中的特征数量。

参考文献

基于单一特征性能的选择在信用风险建模中被使用,如在2017年PyData伦敦会议的以下演讲中所讨论的:

1

Galli S. “机器学习在金融风险评估中的应用”。https://www.youtube.com/watch?v=KHGGlozsRtA

示例

>>> import pandas as pd
>>> from sklearn.ensemble import RandomForestClassifier
>>> from feature_engine.selection import SelectBySingleFeaturePerformance
>>> X = pd.DataFrame(dict(x1 = [1000,2000,1000,1000,2000,3000],
>>>                     x2 = [2,4,3,1,2,2],
>>>                     x3 = [1,1,1,0,0,0],
>>>                     x4 = [1,2,1,1,0,1],
>>>                     x5 = [1,1,1,1,1,1]))
>>> y = pd.Series([1,0,0,1,1,0])
>>> sfp = SelectBySingleFeaturePerformance(
>>>                     RandomForestClassifier(random_state=42),
>>>                     cv=2)
>>> sfp.fit_transform(X, y)
    x2  x3
0   2   1
1   4   1
2   3   1
3   1   0
4   2   0
5   2   0

方法

拟合:

找到重要的功能。

fit_transform:

拟合数据,然后进行转换。

get_feature_names_out:

获取转换的输出特征名称。

get_params:

获取此估计器的参数。

设置参数:

设置此估计器的参数。

获取支持:

获取所选特征的掩码或整数索引。

转换:

将 X 减少到选定的特征。

fit(X, y)[源代码][源代码]#

基于单一特征确定模型性能。选择性能高于阈值的特征。

参数
X: pandas 数据框,形状为 = [样本数, 特征数]

输入数据框

y: 形状为 (n_samples) 的类数组对象

目标变量。训练估计器时必需。

fit_transform(X, y=None, **fit_params)[源代码]#

拟合数据,然后进行转换。

使用可选参数 fit_params 将变换器拟合到 Xy,并返回 X 的变换版本。

参数
X类似数组的形状 (n_samples, n_features)

输入样本。

y类似数组的形状 (n_samples,) 或 (n_samples, n_outputs), 默认=None

目标值(无监督变换时为 None)。

**拟合参数字典

附加的拟合参数。

返回
X_newndarray 数组,形状为 (n_samples, n_features_new)

转换后的数组。

get_feature_names_out(input_features=None)[源代码]#

获取转换后的输出特征名称。换句话说,返回转换后的数据框的变量名称。

参数
input_features数组或列表,默认=None

此参数仅为了与 Scikit-learn 管道兼容而存在。

  • 如果 None,则使用 feature_names_in_ 作为特征名称。

  • 如果是一个数组或列表,那么 input_features 必须与 feature_names_in_ 匹配。

返回
feature_names_out: 列表

转换后的特征名称。

rtype

List[Union[str, int]] ..

get_metadata_routing()[源代码]#

获取此对象的元数据路由。

请查看 用户指南 以了解路由机制的工作原理。

返回
路由MetadataRequest

一个封装了路由信息的 MetadataRequest

get_params(deep=True)[源代码]#

获取此估计器的参数。

参数
深度bool, 默认=True

如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。

返回
参数字典

参数名称映射到它们的值。

get_support(indices=False)[源代码]#

获取所选特征的掩码或整数索引。

参数
索引bool, 默认=False

如果为真,返回值将是一个整数数组,而不是布尔掩码。

返回
支持数组

一个从特征向量中选择保留特征的索引。如果 indices 为 False,这是一个形状为 [# 输入特征] 的布尔数组,其中元素为 True 表示其对应的特征被选择保留。如果 indices 为 True,这是一个形状为 [# 输出特征] 的整数数组,其值为输入特征向量中的索引。

set_params(**params)[源代码]#

设置此估计器的参数。

该方法适用于简单的估计器以及嵌套对象(如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,因此可以更新嵌套对象的每个组件。

参数
**参数字典

估计器参数。

返回
self估计器实例

估计器实例。

transform(X)[源代码]#

返回包含所选特征的数据框。

参数
X: pandas 数据框,形状为 [n_samples, n_features]。

输入的数据框。

返回
X_new: 形状为 [n_samples, n_selected_features] 的 pandas dataframe

包含所选特征的 Pandas 数据框。

rtype

DataFrame ..