如何解决Google Colab内存不足
我是深度学习和TensorFlow的新手。我正在实现paper,即Seq2Seq模型。 这样的模型架构: 编码器:
- 嵌入层
- 两个双向层堆叠在一起,每层隐藏512个单位
全球关注
两个不同的解码器,具有512个隐藏单元。
时间步长为1400。
批处理大小为64。
我使用Colab GPU和TPU进行训练,但我不知所措。我什至无法完成一个纪元。 数据集大小约为25 Mb,其中包含79000个示例。 这是我的implementation。
我的实现有什么问题吗?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。