如何解决我可以喂ARKit面部捕捉预先录制的视频吗?
我知道之前也曾问过类似的问题,但是我有一个非常具体的用例,并认为我可能会在此处添加更多细节。
我不是iOS开发人员,但对ARKit很好奇-特别想使用ARKit ARFaceAnchor测试面部捕捉(跟踪面部表情)。
我想知道是否可以将预先录制的视频提供给ARKit,而不是提供给摄像机。 我确实在这里找到了带有示例代码的文章,内容涉及使用“传感器重播”。
https://github.com/ittybittyapps/ARRecorder/tree/master/ARRecorder
https://www.ittybittyapps.com/blog/2018-09-24-recording-arkit-sessions/
不幸的是,不可能以这种方式发布应用。
我知道面部捕捉不一定需要深度传感器数据(我已经通过将相机举起在监视器上预先记录的面部上来进行尝试)。 因此,我很想知道是否有人知道将静态的预先录制的视频馈送到ARKit的方法吗?
提前感谢您的帮助:)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。