如何解决pytorch转coreml模型过大
我正在尝试使用 coremltools 将我的 pytorch(.pth) 模型转换为 coreml(.mlmodel)。我的初始 pth 文件大小约为 218mb,我使用以下代码进行转换。
model = model.UNet_ConvLSTM(config.img_channel,config.class_num).to(device)
model.load_state_dict(torch.load(config.pretrained_path))
model.eval()
input = rand_tensor = torch.rand((1,5,3,128,256),device=device)
print(input.shape)
trace = torch.jit.trace(model,input)
mlmodel = ct.convert(
trace,inputs=[ct.TensorType(name="input",shape=input.shape)],)
mlmodel.save("unetlstm.mlmodel")
转换成功,但输出文件大约 900mb。为什么会发生这种情况,我可以做些什么来减小模型的大小?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。