arkit专题提供arkit的最新资讯内容,帮你更好的了解arkit。
我有多个 AR 参考图像,我想知道我当前正在跟踪哪一个。我怎样才能做到这一点?这是我的代码: <p
我的目标是能够使用gestureRecognizer 移动/旋转AR 对象。虽然我让它适用于单个 AR 立方体,但我无法让它适
使用 AR 套件通过在两条边之间画线来测量距离时,这条线似乎到处都是,并且每次都无法显示准确的结
我正在向包含一个实体的 <code>ARView</code> 添加一个场景。我想知道如何获得实体的锚点和相机之间的距
我使用了两个独立的 iOS 库,它们利用了设备的相机。 第一个是用于使用相机捕获常规照片的库。
我开发了一个使用 TensorFlow 进行对象检测的 AR 移动应用程序。该应用程序在 iPhone 12 Mini 和其他 iPhone 上
我对 Xcode 很陌生,所以任何帮助都是天赐之物。我正在尝试编写一个应用程序,以设定的时间间隔从 iPh
我正在使用 ARKit 和 Scenekit 创建一个只需要扫描的网格。它运行良好,我可以成功创建几何图形和纹理。
我制作了一个可以跟踪手部位置并根据手指位置移动 AR 对象的应用程序。主要方法使用视觉框架。代码
我从我的 ARKit 会话的不同 ARframe 中收集图像。 当我组合不同的图像(= 图像拼接)时,例如单个蓝色墙
我正致力于在 iOS 上创建一个 AR 应用程序,它可以定义一些带有一些注释的锚点并将它们保存在云中。
我一直在尝试使用它的网格在 USZD 模型(通过 Reality Converter 从 .glb 转换)上创建一个适当的碰撞器,但
我的用例是我想计算相机看到的一只手(第一只手)的各种手势。我能够找到身体锚和手锚和姿势。 <a h
在 Reality Composer 中创建实体后,我想以编程方式更改实体的颜色。 由于 Reality Composer 不会创建 Model
我在 iOS 上有一个 AR 应用程序,一切正常,视频弹出以填充检测到的锚点图像,但对于形状奇特的锚点
我在尝试在 SceneKit 中实现自适应细分时遇到问题。我期望的结果应该与 Fox 网格的 WWDC 的 2017 年 SceneKit
我正在开发一个原型,它应该能够扫描现实世界的对象并创建它的 3D 表示。然后需要获取该对象的空间
我已经在 iPhone12 上运行了 ARKit4 的示例。密集的点云很棒,网格……不要太多。这是一个低多边形网格
Android ARCore Pose() 类中有一个方法。 <pre><code>pose.inverse().transformPoint() </code></pre> 我正在 IOS 平台 (swif
我完全是 Swift 和 iOS 的初学者,我正在尝试: <ol> <li>在手机屏幕上可视化深度图,而不是实际的视频