如何解决使用Pytorch运行Bert时,CUDA内存不足以前有效
我正在使用Pytorch在SageMaker上构建BERT二进制分类。
以前,当我运行模型时,我将批处理大小设置为16,并且模型能够成功运行。但是,昨天在我停止SageMaker并于今天早晨重新启动之后,我无法再将Batch size作为16运行该模型。我可以运行批处理大小为8的模型。
但是,该模型不会产生相同的结果(当然)。在这之间我什么都没改变。所有其他设置均相同。 (除了我将SageMaker的容量从30GB更改为200GB。)
有人知道什么可能导致此问题吗?我真的很想重现批次大小为16的结果。
任何答案都会帮助您,并提前谢谢您!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。