feature-selection专题提供feature-selection的最新资讯内容,帮你更好的了解feature-selection。
我有一个包含 99,814 个条目的矩阵,其中包含评论及其各自的极性(正面或负面),我希望对语料库的术
我正在尝试获取回归模型的特征重要性。我有 58 个自变量和 1 个因变量。大多数自变量是数字的,有些
有没有办法根据 XGBoostmodel.get_score 输出的重要性自动从数据集中删除特征? 输出是作为字典给出的
首先,我知道使用 PCA 进行特征选择并不是一种真正的方法,但是,我发现了一些使用 PCA 进行特征选择
在<code>mutual_info_regression</code>预装<code>n_neighbors=3</code> 此代码适用于 <code>n_neighbors=3</code>: <pre><code>se
我这里已经提到了一个奇怪的问题:<a href="https://stackoverflow.com/questions/58404743/linearsvc-feature-selection-returns
我是机器学习的新手,我接到了一项任务,要求我使用表示学习(例如堆叠式自动编码器)从具有连续
我正在做特征选择,在尝试了一个带有 L1 惩罚的逻辑分类器之后,我想尝试一个像 RF 这样的非线性分类
我是使用 MultiSURF 算法进行特征选择的新手。 我正在使用 skrebate 的 MultiSurf。 我有大约 6500 个
我无法在以 MultiOutputRegressor 结束的管道中使用 SelectKBest 进行特征选择(见下文,其中 pipe1 工作正常,
我想获得一个包含重要特征的数据框。使用下面的代码,我得到了 shap_values,但我不确定这些值是什么
我需要在我的数据集中使用信息增益特征选择方法。但是,有人告诉我,在拆分数据之前使用它会导致
我有不平衡的数据集,我应用 <code>RandomOverSampler</code> 来获得平衡的数据集。 <pre><code>oversample = RandomO
我想将卫星图像分类为土地覆盖分类。图像有 20 个波段和 7 个土地覆盖类别,我想使用散度分离指数进
尝试将特征选择应用于我的分类模型时出现错误。我认为这个错误很简单,很容易解决,但我不确定如
我正在尝试使用 Python 中的包装器方法使用 KNN 从我拥有的数据中实现简单的前向选择。 我的数据
<pre><code>import numpy as np import pandas as pd import seaborn as sns from sklearn.linear_model import LinearRegression from sklearn.datas
<pre><code>from imblearn.pipeline import Pipeline from imblearn.over_sampling import SMOTE smt = SMOTE(random_state=0) pipeline_rf_smt_
我正在使用 AUCRF 来获取排名靠前的变量,我想根据 AUCRF 选择的特征构建分类器模型,但是每次在构建分
您好,我正在使用 Spyder 运行以下代码行。 <pre><code># importing libraries import numpy as np import matplotlib.pyplot