feature-selection专题提供feature-selection的最新资讯内容,帮你更好的了解feature-selection。
我有很多预测变量并计划进行多重插补,但我不知道从哪里开始以及如何在面板数据中选择预测变量。
我正在使用集成方法在 autosklearn 中训练一个模型,我想知道是否可以在拟合后获得最终集成模型的特征
我想使用 adaboost 选择重要功能。我发现“yellowbrick.model_selection”对于这项工作非常好且快速。我使用了
我正在使用 sklearns <code>permutation_importance</code> 来估计我的自变量的重要性。我拟合的模型是线性回归。
我一直在研究涉及表格数据分析的回归问题。我一直在训练许多不同的模型,并且模型过度拟合了一个
我使用 <code>statsmodels.formula.api </code> 如下计算 P 值。但显然,这在库的新版本中不起作用。您知道替代
我有一个相关矩阵(例如 67x67)。我想找到高于阈值的相关对,并将它们存储在 python 中的两个单独的集
我将一个包含 3,000 个特征的 CSV 文件作为输入,并为其计算 SVD。然后我将一个类标签列添加到输出 CSV
我正在尝试以比在 <code>GridSearchCV</code> 中使用 <code>cross_val_score</code> 更手动的方式实现嵌套交叉验证,
我正在使用 <code>sklearn</code> 管道,并希望有一个可能设置为无特征选择的特征选择步骤。是否有一个 <co
我正在从事一个项目(从语音或语音语气中检测情绪),我正在使用 MFCC,我在某种程度上理解它,并且
我正在尝试为线性模型选择特征。我需要使用 pearson r 相关系数选择 15 个最相关的特征。 使用 <code
我的数据框中有 96 个变量。我想用 <code>Boruta()</code> 函数发现的重要变量来拟合逻辑回归。如果只有少
我有以下错误: <a href="https://i.stack.imgur.com/Q3NNC.png" rel="nofollow noreferrer"><img src="https://i.stack.imgur.com/Q3NNC.p
我正在研究二进制分类数据集并将 xgBoost 模型应用于该问题。模型准备好后,我会绘制特征重要性和由
我正在测试使用超参数运行特征选择的方法。 我正在运行具有超参数算法 <code>SequentialFeatureSelection
我一直在波士顿数据集上试验 RFECV。 到目前为止,我的理解是,为了防止数据泄露,执行此类活动
我有一个二元分类问题。我的数据集由不同类型的列组成:二进制(0 或 1)或文本(来自电子邮件的文
我目前正在使用 <code>xgb.train(...)</code>,它返回一个增强器,但我想使用 RFE 来选择最好的 100 个功能。返
<strong>Friedman 的 H 统计量</strong> <a href="https://blog.macuyiko.com/post/2019/discovering-interaction-effects-in-ensemble-models