android-camera2专题提供android-camera2的最新资讯内容,帮你更好的了解android-camera2。
我的目标是将Android深度相机流(DEPTH16)作为OpenGL ES纹理读取,以便可以在着色器中对其进行处理。如<a
我正在尝试捕获YUV图像,但是被拉长了。我正在按照<a href="https://github.com/googlearchive/android-Camera2Basic" rel=
我正在使用Camera2 API,并且正在尝试检索最大的可用图像尺寸。我想使用Collections.max。我试图用Java编写
在我的应用中,我正在尝试编写代码以通过启用和禁用相机快门声音来静音和取消静音屏幕截图声音,
我可以在Android Studio中使用camera2拍摄和保存照片。开启相机后,我需要能够将以前制作的照片(例如贴
我正在使用camera2 api来连接相机。 <a href="https://stackoverflow.com/questions/45331320/taking-picture-while-recording-video-o
我需要制作一个视频捕捉器来记录一些东西,然后将文件保存到磁盘上。 我成功地使其分别与后置
我正在一个项目中,我需要以一定的分辨率,质量和<em>等待</em>时间不断拍照。用户可以开始/停止捕获
使用Camera2 API和Google MLKit时出现问题。现在,我试图做的只是在检测到脸孔时记录一条消息。但是我有这
我面临一个无法解决的问题,每当我按下“捕获图像”按钮并请求相机进行静态图像捕获时,我的<code>on
默认情况下,我捕获到的图像旋转了-90度,我需要将其旋转回去,但是其高度与屏幕的高度不同,所以
问题有点奇怪。 (我看到黑色的预览纹理)我带有自己的解决方案,不显示预览,而是将预览缓冲区刷
我想使用自定义表面视图在Camera2 / CameraX预览上叠加形状动画,并捕获并保存视频,包括摄像机输出和叠
我想在将图像添加到ARCore数据库之前计算图像质量得分。我读过<a href="https://developers.google.com/ar/develop/c/a
我想知道是否可以使用CameraX访问ToF(飞行时间)传感器深度图。 还是我应该使用Camera2? 谢谢
当我通过SENSOR_EXPOSURE_TIME,SENSOR_SENSITIVITY和SENSOR_FRAME_DURATION使用手动曝光/增益时,我试图从android camera2 A
我正在尝试同时使用ARCore和Camera2。 我的问题是出现以下错误: <pre><code>2020-10-15 13:56:33.244 2559-25
基本上我有一个摄像头服务,我曾经用它来捕获图像,但是在弹出式摄像头中,摄像头一直都是openend的
我使用Camera2,并且希望在每帧上获得LENS_POSE_ROTATION和LENS_POSE_TRANSLATION。 我愿意: <pre><code> float[
如果我使用camera2 API捕获某些图像,则在图像处理后,例如降噪,色彩校正,一些供应商算法等之后,我