如何解决从远程源加载重型 CoreML 模型
我们有一个很重的 CoreML 模型 (170MB~),我们希望将其包含在我们的 iOS 应用中。
由于我们不希望应用程序太大,所以我们创建了一个较小的模型(性能较低),我们可以直接包含它,我们的目的是在应用程序启动时下载重模型并在两者之间切换下载重模型时。
我们最初的想法是采用 Apple's CoreML Model Deployment 解决方案,但很快我们就发现这是不可能的,因为 Apple 要求 MLModel
的存档大小不得超过 50MB。
所以问题是,是否有替代解决方案来从远程源加载 CoreML 模型,类似于 Apple 的解决方案,以及如何实现它?
任何帮助将不胜感激。谢谢!
解决方法
将 mlmodel 文件放在您拥有的服务器上,使用您喜欢的方法将其下载到应用程序的 Documents 文件夹中,创建下载文件的 URL,使用 MLModel.compileModel(:at)
编译它,初始化 MLModel(或自动生成的类)使用编译的模型。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。