feature-selection专题提供feature-selection的最新资讯内容,帮你更好的了解feature-selection。
我使用 pyswarms 库将 BPSO 实现为一种特征选择方法。 <a href="https://pyswarms.readthedocs.io/en/development/examples/feat
<a href="https://i.stack.imgur.com/NxEPl.png" rel="nofollow noreferrer"><img src="https://i.stack.imgur.com/NxEPl.png" alt="enter image d
我想在 mlr3 中使用 PCA 和后续的特征选择/过滤。 我还没有在包/框架中找到这个“过滤”的 AIC 和 BI
我试图更多地了解 mlr3filters 的 AUC 过滤器。我使用分类任务 (<code>task</code>) 和以下代码: <pre><code>filt
我正在尝试对技术流程进行聚类。在我的数据集中,我有很多文本数据,我已经使用 TF-IDF 和 k-means 对它
在 TfidfVectorizer 输出上应用 SelectKBest 后,我​​们在文档项矩阵中获得了如此多的重复特征。我想删除
我看过 <a href="https://stackoverflow.com/questions/56308116/should-feature-selection-be-done-before-train-test-split-or-after">Should
我有一个包含依赖观察的数据库,需要使用分组重采样策略来避免数据泄漏。我预测的结果是二元的。
运行后: <pre><code>feature_selector = SelectKBest(chi2, k=2).fit(X_train, y) X_train_pruned = feature_selector.transform(X_train
我致力于多分类问题。 我想知道 ANOVA 测试选择的输入特征的名称。 我得到了这样的东西 <a href="https://i.
我正在尝试在 Python 中进行顺序特征选择,并想通过 GridsearchCV 选择特征数量,有人可以帮助我理解为什
我问自己一个问题,OLS 回归(对于任意矩阵 x)是否总是可以执行,因为我知道,例如,如果存在共线
我有一个包含 200 个特征和约 10m 样本的大型数据集。我遇到了麻烦,因为我不断得到决策树,这些决策
我试图从我的数据集中排除几列。我正在尝试: <pre><code>df_enduse[,-c(&#34;EndUse_Solid_Cooking&#34;,&#34;EndUse_S
对于 R 中的 RFE 特征选择,我使用 'ranger' 方法以及其他类似方法遇到此错误。我已经尝试消除高度相关
由于 Catboost 不支持 sklearn RFE(递归特征消除)过程,我不得不使用 catboost 的唯一特征选择选项:select_fe
我有两个预测器 - 想使用 tf-idf 将它们中的每一个向量化(不想连接它们,因为我们需要为每个预测器使
我正在使用一个名为“ols_step_forward_aic”的内置命令,它是一个以 AIC 为标准实现向前逐步选择过程的命
我正在使用 xgboost 进行排名,请考虑以下代码: <pre><code>X_train = train_data.loc[:, ~train_data.columns.isin([&#39
我正在编写实现逐步子集选择的代码。 具体来说,为了实现向前逐步选择,我必须重复向前面的公