如何解决是否可以将图像转换为图像 TensorFlow 模型到 CoreML?
目标是使用图像类型的输入和输出将 TensorFlow 模型转换为 CoreML。
我正在使用 Python 3.8
和 TensorFlow 2.4.1
该模型具有输入和输出形状 (1,128,3)
像素在 -1 和 1 之间浮动。
我正在使用它来创建 CoreML 模块:
import coremltools as ct
from coremltools.proto import FeatureTypes_pb2 as ft
input_name = generator.inputs[0].name.split(':')[0]
image_input = ct.ImageType(name=input_name,shape=(1,3),scale=2 / 255.0,bias=[-1.0,-1.0,-1.0])
mlModel = ct.convert(generator,inputs=[image_input],source="tensorflow")
# Set Output as Image
spec = mlModel.get_spec()
output = spec.description.output[0]
output.type.imageType.colorSpace = ft.ImageFeatureType.ColorSpace.Value('RGB')
output.type.imageType.width = 128
output.type.imageType.height = 128
# Save
new_model = ct.models.MLModel(spec)
new_model.author = '...'
new_model.license = '...'
new_model.short_description = '...'
new_model.input_description[input_name] = 'Input Image'
new_model.output_description[output.name] = 'Predicted Image'
new_model.save("model.mlmodel")
print("Input name: ",input_name) # -> input_1
print("Output name: ",output.name) # -> Identity
我可以测试这样的预测(结果是正确的):
# image shape=(1,dtype=float32)
prediction = generator(image,training=True)
plt.imshow(prediction[0] * 0.5 + 0.5)
plt.show()
生成的模型在 Xcode 上是这样的: image to image model
这是我在 IOS 上使用的:
func generateImage(inputImage: UIImage,completion: @escaping (UIImage?)->()) {
guard let model = try? VNCoreMLModel(for: Model(configuration: .init()).model) else {
completion(nil)
return
}
guard let cgImage = inputImage.cgImage else {
completion(nil)
return
}
let coreMLRequest = VNCoreMLRequest(model: model) { (request,error) in
guard let results = request.results as? [VNPixelBufferObservation] else {
print("Can't get results: \(request.results) Error: \(error?.localizedDescription)")
completion(nil)
return
}
guard let topResult = results.first else {
print("Can't get top result")
completion(nil)
return
}
let newImage = UIImage(ciImage: CIImage(cvPixelBuffer: topResult.pixelBuffer))
completion(newImage)
return
}
do {
try VNImageRequestHandler(cgImage: cgImage,options: [:]).perform([coreMLRequest])
} catch {
print("Failed to perform request. Error: \(error.localizedDescription)")
}
}
失败并显示错误:The VNCoreMLTransform request failed
。
直接从 Xcode 尝试预览选项也失败了。
所以我相信在转换过程中输入或输出设置不正确。
是否可以从 (1,3) float32
转换为 CoreML 期望的任何内容?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。