feature-selection专题提供feature-selection的最新资讯内容,帮你更好的了解feature-selection。
我正在使用高级回归房价数据集创建模型。它有 37 个数字特征。我想通过删除具有零或非常低方差的特
我正在关注这个计划:<a href="https://scikit-learn.org/dev/auto_examples/inspection/plot_permutation_importance_multicollinear.h
什么是 Xvariance?它与方差有何不同?从github上得到以下代码,对吗? 我已经在 notebook 中执行了代
有没有什么方法可以通过 Python 中的不确定性来实现特征加权,就像在 RapiMiner 中所做的那样:<a href="http
我是数据科学领域的新手。 我有一个数据集,其中包含数字和字符串数据。有趣的事实是这两种类
我正在运行特征选择,并且我一直在使用 RFECV 来寻找最佳特征数量。 但是,我想保留某些功能……所以
前向选择和后向淘汰的结果一定要一样吗?如果两种方法的结果非常不同,可能是什么原因?如何评价
我意识到嵌套交叉验证可用于减少超参数时的偏差 调整与模型选择相结合。但是,我想知道是否可以执
我正在尝试使用 R 中随机森林的 h2o 实现进行特征选择,但我正在处理这个问题:我有三个特征可以“捕
所以我尝试使用 TFiDF 转换的特征来计算卡方并选择最有用的特征。我面临的问题是我的 TFiDF 输出包含各
我正在研究 kaggle 上的房价竞赛。我有一个数据准备功能,它使用递归特征消除 (RFE) 进行特征选择,如
我正在使用 PySpark 的 ChiSqSelector 来选择最重要的特征。代码运行良好,但我无法验证我的功能在索引或
在 python 中将 y 的 randomforestregressor 转换为 16 个数字特征(变量)。 现在我有一个长度为 16 的数组
我正在研究 CTU-13 数据集,您可以在数据集 <a href="https://rpubs.com/harpomaxx/ctu13" rel="nofollow noreferrer">here</a>
我目前一直在研究关于脑肿瘤分类的 FYP。使用小波变换、glcm、多项式变换等提取特征。 附加这些特征
我正在尝试应用 RFE 来选择分类问题中最好的几个特征。代码如下。我猜评分标准是“准确性”(我说得
我正在尝试在 R Shiny Web 应用程序中实现用于特征提取的 R Boruta 包,但我无法将变量传递到响应向量的 Bo
我想做特征选择,我使用了随机森林分类器,但做了不同的事情。 我使用了 <code>sklearn.feature_selecti
我有一款产品将于今年 6 月推出,在此之前 v1 和 v2 已上市。我需要确定将购买或使用此产品(软件产品
皮尔逊相关性有助于特征选择。例如,我们在这里读到: <a href="https://i.stack.imgur.com/kT1Vv.png" rel="nof