feature-selection专题提供feature-selection的最新资讯内容,帮你更好的了解feature-selection。
我将一个单一的特征向量数组作为灰狼算法的输入。我已经完成了二值化部分。 <pre><code>def Fun(x): # Pa
我一直在尝试使用 <code>varImp</code> 包中的 <code>caret</code> 函数计算具有混合尺度特征的模型的变量重要性
我正在使用带有 RFECV 的不平衡数据集 (54:38:7%) 来进行这样的特征选择: <pre><code># making a multi logloss me
我在 R 中使用 <code>attrEval</code> 包中的 <code>CORElearn</code> 函数来使用 Relieff 算法执行特征选择。当我使用
只是想知道是否有人知道类似于单击 OpenLayers 地图上的要素(点)并触发一个小的弹出表单以供完成?</
我有一个生物数据,其中特征相同但目标值不同。这可能是因为实验测量中的误差和目标值在某些情况
我尝试了几种为 R 中的逻辑回归选择预测变量的方法。我使用套索逻辑回归去除不相关的特征,将它们
当我将堆叠自动编码器应用为特征选择时出现此错误。 <块引用> ValueError: logits 和标签必须具有相
非常感谢您提前提供帮助。我目前正在处理一个包含 794 个观察值和 1023 个变量的数据集。我正在尝试对
我尝试使用相关性来提取特征,但我遇到了这个问题: 请帮帮我,我该如何解决? <块引用> Attribut
我正在对具有 990 个观测值和 1023 个变量的数据运行一些模型。由于 p>n 我需要做一些特征选择。因此,
在 <code>all_features = X_train.keys()</code> <块引用> AttributeError: 'numpy.ndarray' 对象没有属性 'keys' </blockqu
我有一个 GPR 训练模型,具有七个特征和一个响应变量。从文献(实际观察)中,我知道响应变量对特征
<a href="https://en.wikipedia.org/wiki/Kaplan%E2%80%93Meier_estimator#:%7E:text=The%20Kaplan%E2%80%93Meier%20estimator%2C%20also,amount%2
我有以下代码: <pre class="lang-py prettyprint-override"><code>X = df.text.to_list() y = df.label pipe = Pipeline([ (&#39
有没有办法使用 xgboost 的 get_score 的输出根据增益自动对特征进行排名,然后从数据集中删除排名靠后的
我正在比较 RF、XGBOOST 和 Logistic Regression 等模型的预测性能,虽然前 2 个有自己方便的特征选择方式,但
高度相关的特征给出相同的信息,或者它们是重复的特征。 <pre><code>correlation_matrix = df_dumm_nopresence_non
我知道有人使用交叉验证。但谁能解释一下??以及何时使用每个?
我有一个包含大约 80 个分类和布尔属性的数据集。我打算找到这些属性中的每一个与目标变量(0 和 1)