keras专题提供keras的最新资讯内容,帮你更好的了解keras。
如何在keras模型中更改图层的节点数? 我尝试过的一种方法是使用keras功能API进行具有所需更改的
我正在使用喀拉拉邦的顺序模型制作预测模型。 我有一个带有json文件的数据集。 <pre><code>[ {
我正在尝试为MNIST数据集训练一个简单的模型。一个隐藏的层由36个神经元组成。 <pre><code>NUM_CLASSES = 1
这几乎把我杀了。 我试图在for循环中加载几个训练有素的模型,然后将它们放到内存中以节省加载
我有一些自己的图像,这些图像使用VGG注释器以界标点进行注释。 我正在尝试检测和训练该带注释的地
我有一个hdf5文件,其中包含用于训练和测试使用Keras train_test_split创建的神经网络并写入hdf5文件的数据
我正在尝试在一个小的数据集上训练mobilenet-unet。但是,当开始训练时,我的模型遇到了keras刮痕图错误
我正在训练CNN来比较两个图像。然后,CNN可以说出我放入CNN中的新图像是否相等。因此,我通过cv2连接
我创建了一个虚拟回归keras模型,以在将其提供给实际模型之前检查我的自定义损失。 现在,我只希望
我正在研究叶子疾病,并尝试在<a href="https://github.com/spMohanty/PlantVillage-Dataset/tree/master/raw/color" rel="nofollow
因为我有一个很大的数据集,所以我应该使用<code>model.fit</code>而不是<code>reduceLROnplateau</code>,并且要对
定义每个时间段的样本= 233,nb_val_samples = 62且时间段= 4,然后出现错误 <blockquote> 类型错误:fit_gene
良好的训练,测试和验证准确性,但模型的历史准确性行为奇怪: 这是我的模型的摘要: <a href="h
我试图了解TOCO如何精确量化带注释的模型。假设我们有一个keras模型: <pre><code>Conv2D MaxPool Conv2D MaxPoo
我一直在用Kaggle构建用于手写字符识别的CNN-LSTM混合模型。 不幸的是,LSTM部分一直在增加估计时间。后
我目前正在构建一个CNN,以便从CT图像(灰度为1024 x 1024像素)开始对2个不同的类别进行分类。我知道我
我正在使用RobustScaler来拟合和转换x_train和x_test。我是否也应该转型 y_train和y_test也是如此。我之所以这
我像这样编译并训练了一个模型: <pre><code>model.compile(optimizer=opt, loss=pixelwise_weighted_binary_crossentropy, me
我制作了两个不同的卷积神经网络用于多类分类。然后,我在keras中使用了validate_generator函数测试了这两个
我正在尝试在Keras中构建变型自动编码器以异常检测事件序列数据。 我正在阅读本文<a href="https://ar