如何解决将 Float32 数组转换为 coreml 中的图像
我将 deelplab v3 模型从 Pytorch 转换为 coreml 并将输出视为 MultiArray,因此我需要将输出转换为图像。我一直在使用许多不同的建议(例如来自 coreml 生存指南),但仍然没有成功。有没有好心人可以帮我一下?非常感谢。
仅供参考,这是来自 Python 的模型规范:
spec desc is
input {
name: "input.1"
type {
imageType {
width: 513
height: 513
colorSpace: RGB
}
}
}
output {
name: "1436"
type {
multiArrayType {
dataType: FLOAT32
}
}
}
在Xcode中,我在Xcode中打印出来的输出是“Float32 1 × 14 × 513 × 513 array”,我假设1是通道数,14是标签数,513 x 514是宽度x 高度。如何将此数组转换为 Int32 513 × 513 矩阵或图像?
感谢您的帮助!
编辑:我在下面添加了我的模型输出结构与 Apple 的 DeeplabV3(通过 Netron 可视化)进行比较,以供您参考。任何指导表示赞赏! 1/ My model output's architecture
解决方法
图像只有 1、3 或 4 个通道(灰度、RGB 或 RGBA)。您有 14 个通道,因此您需要决定这 14 个通道如何映射到颜色。
以下是一些演示代码,展示了一种可能的方法(也使用 DeepLab v3):https://github.com/hollance/SemanticSegmentationMetalDemo
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。