如何解决命令行tensorflowjs_converter量化到TensorflowLite输出文件是否不小?
我已使用这些命令行命令成功将TensorflowJS模型转换为TensorflowLite(适用于Arduino风格的微控制器)。
只要它们与model.json文件位于同一文件夹中,并且“ PATHS” json正确指向它的model.weights.bin文件即可。
注意:我先将tfjs转换为keras,然后将keras转换为tflite,再将tflite转换为c头文件。
pip install tf-nightly
pip install tensorflowjs
pip install netron
tensorflowjs_converter --input_format=tfjs_layers_model --output_format=keras_saved_model ./model.json ./
tflite_convert --keras_model_file ./ --output_file ./model.tflite
xxd -i model.tflite model.h
我的输出是一个c头文件,看起来像这样
unsigned char model_tflite[] = {
0x1c,0x00,0x54,0x46,0x4c,0x33,0x12,............
0xfc,0xff,0x04,0x00
};
unsigned int model_tflite_len = 3048;
可以使用TinyML或Arduino版本的TensorflowLite将其加载到微控制器上
如果我尝试将量化设置为减小输出文件的大小(--quantize_uint8,-quantize_uint16,-quantize_float16),请在第一个命令中尝试以下操作:
tensorflowjs_converter --quantize_uint8 --input_format=tfjs_layers_model --output_format=keras_saved_model ./model.json ./
运行,但是当我查看最终的输出C头文件时,该文件的大小没有变化。有人有什么建议吗?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。