k-fold专题提供k-fold的最新资讯内容,帮你更好的了解k-fold。
我想用 sklearn.kfold 拆分我的数据。这是我的代码 <pre><code>kf = KFold(n_splits = 10) print(np.shape(X_1)) print(np.s
我运行以下代码: <pre><code>seed = 7 np.random.seed(seed) kfold = StratifiedKFold(n_splits=5, shuffle=True, random_state=see
我正在使用不同的交叉验证方法。我首先在我的代码上使用 k fold 方法,它非常好,但是当我使用 <code>sa
我专门这样做,因为我需要 X_train、X_test、y_train、y_test 否则我可以很容易地适应 X,y。但我不确定下面
当我尝试将来自数据集的一组图像存储在一个 numpy 数组中以使用 <strong>分层 k 文件夹</strong> 来处理它们
我有一个问题,我的k-fold的精度没有回到0,而是在上一个fold上继续最后一个epoch的精度,请找到解决办
我正在尝试训练 XGBoost 算法,但收到以下警告: <pre><code>This may not be accurate due to some parameters are only u
<pre><code>ctrlspecs &lt;- trainControl(method = &#34;repeatedcv&#34;, number = 5, repeated = 5) </code></pre> 我使用了repeatcv方
我在同一个数据集上做过 DecisionTreeRegression 和 RandomForestRegression。 对于 RandomForest,我使用了 5 个随
我正在从头开始构建决策树,而不使用 sklibrary。我目前用来分割样本的方法是 K 折法。我想从 K-fold 方
我正在尝试使用 Xeption 的迁移学习为 7 个类别创建图像分类模型,但我遇到了“验证准确度大于训练准
我正在尝试使用 Xeption 的迁移学习为 7 个类别创建图像分类模型,但我遇到了“验证准确度大于训练准
我正在尝试使用 Xception 的迁移学习为 7 个班级制作图像分类器。现在我正在尝试实施交叉验证。我知道
给出反映客户特征以及银行是否继续与他们合作(流失)的银行客户样本。样本涉及 10,000 个客户,而文
我正在使用 GridSearchCV 在执行 KFold 时为 k 个随机森林模型找到最佳参数。我想将所有这些 k 个模型存储
我想在具有 12000 条记录的数据集上使用增强技术。我将数据分成 6 等份,其中 4 份用于训练,1 份用于
我是机器学习的新手,我对 K 折交叉验证感到困惑。当我编写 fold for 循环时,我应该在哪里定义 sklearn
是否可以将 <strong>Keras-Tuner</strong> 与 <strong>K-Fold</strong> 一起使用,并观察每个文件夹中的输出?
我正在使用随机森林分类器并且我想执行 k 折交叉验证。 我的数据集已经分成 10 个不同的子集,所以我
我正在使用 pytorch(只有 2 个类)开发多模式分类器(文本 + 图像)。 由于我没有很多数据,我决