transfer-learning专题提供transfer-learning的最新资讯内容,帮你更好的了解transfer-learning。
我正在尝试读取图像文件并对图像进行分类。 我的模型是resnet18,我之前对其进行了培训,并计划使用
我将 LSTM 用于预训练模型并保存。 LSTM 由 2 层(4 个神经元,2 个神经元)和 ine 密集层 (56) 组成。我想
我看到模型的输入,但没有看到此函数中使用的输出。那么,为什么函数会调用它? 在下面的类中
我需要一个使用现有 bert 模型的建议,该模型已针对句子分类进行了预训练。 现有模型接受以下形
我正在微调之前使用迁移学习训练的 ResNetV2 模型,这些模型来自 40 个类别的 320 个图像。我正在向模型
我正在尝试使用 TensorFlow 构建“汽车分类器”。 我有 1000 张带标签的 JPG 图像,800x800,带有边界框
我最近从 TensorFlow 切换到 PyTorch。我使用著名的 <a href="https://github.com/rwightman/gen-efficientnet-pytorch/tree/master
<pre><code>inputs = tf.keras.layers.Input(shape=(32,32,3)) resize = tf.keras.layers.UpSampling2D(size=(7,7))(inputs) feature_extractor = tf.
我的验证准确度低于训练准确度。<a href="https://i.stack.imgur.com/0uAIH.png" rel="nofollow noreferrer">outputoftrainandvali
我想根据不同大小的训练和验证数据集来比较模型性能。 我希望能够构建一个循环,使用 10k train
我有 12 个包含图像的文件夹(它们是我的数据的类别)。此代码通过有效压缩将图像及其相应标签转换
我有一个大小为 300*300 的激光焊接图像数据集,其中包含两类坏焊缝和好焊缝。我已经关注了 <a href="http
我正在使用 tlt。当我通过下面的代码运行它 <pre><code>sudo docker run --gpus all -it -v /home/TLT:/workspace/tlt-expe
我想在迁移学习之前添加注意层,如下所示,但是,在函数 <code>create_model_tl</code> 中我不认为传递 <code>x
我是小样本学习的新手,我想通过应用到我的自定义数据集的 <a href="https://keras.io/examples/vision/reptile/" rel
我正在研究 VQA 模型,我需要一些帮助,因为我是新手。 我想在开火车之前使用来自 VGG19 网络的迁
我正在尝试使用转移训练解决图像分类问题。我有一个 EEG 信号频谱图数据集。我想在这个数据集上训练
要在没有属性的情况下对时尚图像的类别进行分类,我们是否可以与 CNN(vgg16) 一起使用任何注意力机制
我用一个有 43 个类的数据集训练了一个 Sequential 模型;每个类名都是 0 - 43,它们来自目录的名称。现在
我正在尝试使用预训练的 VGG16 模型在 pyTorch 上对 CIFAR10 进行分类。该模型最初是在 ImageNet 上训练的。</p