如何解决在ResNet50:forward函数中使用._modules访问单个层时,终端自行退出,输出为:'^ C'
我正在尝试对情感图像检索的研究论文“注意感知极性敏感嵌入”的编码实现。我在github上找到了这段代码:
在重载的ResNet类(new_resnet24.py)的forward()
方法中:
print("check point ---2")
print(len(self.base._modules))
for name,module in self.base._modules.items():
print(name)
print(x.size())
if name == 'avgpool':
break
if name == 'layer3':
l2 = x
x = module(x)
l4 = x
print("check point ---x")
打印以下内容后,Google Colab上的终端将退出:
它永远不会到达“检查点--- x”,程序就结束了。
我试图从.cuda()
中删除__init()__
:
我观察到它能够再循环一次,因此我相信Google Colab上的RAM已满,因为模型非常大。我想知道这段代码是否有解决方法。是否可以通过其他方式找到l2和l4?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。