我认为我不太了解Unity渲染引擎.
我使用RenderTexture生成屏幕截图(我需要稍后管理它):
screenshotRenderTexture = new RenderTexture(screenshot.width, screenshot.height, depthBufferBits, RenderTextureFormat.Default);
screenshotRenderTexture.Create();
RenderTexture currentRenderTexture = RenderTexture.active;
RenderTexture.active = screenshotRenderTexture;
Camera[] cams = Camera.allCameras;
System.Array.Sort(
cams,
delegate(Camera cam1, Camera cam2)
{
// It's easier than write float to int conversion that won't floor
// depth deltas under 1 to zero and will correctly work with NaNs
if (cam1.depth < cam2.depth)
return -1;
else if (cam1.depth > cam2.depth)
return 1;
else return 0;
}
);
foreach(Camera cam in cams)
{
cam.targetTexture = screenshotRenderTexture;
cam.Render();
cam.targetTexture = null;
}
screenshot.ReadPixels(new Rect(0, 0, textureWidth, textureHeight), 0, 0);
screenshot.Apply();
RenderTexture.active = currentRenderTexture;
但是,如果depthBufferBits为0,则渲染会导致所有类型的z缓冲区错误(以错误的顺序呈现的内容).
我理解一般意义上的深度缓冲是什么.但是,我不明白的是 – 如果使用RenderTexture来组合各个摄像机的渲染结果,为什么需要深度缓冲?这个抽象是如何工作的 – 确切地说 – 相机是否自己创建图像然后将其提供给RenderTexture,或者相机使用RenderTexture的深度缓冲区?它似乎是后者,因为我经历的错误(错误顺序的东西都是用相同的相机渲染的,所以问题是在一台相机内部订购东西,而不是在不同相机之间订购东西),但同时时间与C#级别的这些抽象结构的常识相矛盾.
最后 – 我可以以某种方式使用用于正常渲染的默认深度缓冲区吗?因为移动设备上每像素16位非常痛苦.
更新:
这是我试图做的事情:
screenshotRenderTexture = new RenderTexture(
screenshot.width,
screenshot.height,
0,
RenderTextureFormat.Default
);
screenshotRenderTexture.Create();
RenderBuffer currentColorBuffer = Graphics.activeColorBuffer;
Graphics.SetRenderTarget(screenshotRenderTexture.colorBuffer, Graphics.activeDepthBuffer);
yield return new WaitForEndOfFrame();
Graphics.SetRenderTarget(currentColorBuffer, Graphics.activeDepthBuffer);
这就是我得到的:
SetRenderTarget can only mix color & depth buffers from RenderTextures. You're trying to set depth buffer from the screen.
UnityEngine.Graphics:SetRenderTarget(RenderBuffer, RenderBuffer)
<ScreenshotTaking>c__Iterator21:MoveNext() (at Assets/Scripts/Managers/ScreenshotManager.cs:126)
为什么它不能混合来自屏幕的深度缓冲区和RenderTexture的颜色缓冲区?
解决方法:
我不太了解Unity,但我知道他们的基础层,如果他们可以映射说D3D9,D3d10和OpenGL,那么他们的抽象必须使用一个共同点.
在这种情况下,D3D10是最受限制的,您不能在不同大小的渲染目标之间共享深度表面.如果您拥有相同大小的屏幕并在整个地方渲染目标,那么您确实可以将唯一的深度缓冲区绑定到不同的渲染目标.
深度缓冲区不是严格必要的,因为您已经观察到可以在没有深度缓冲区的情况下进行渲染,但结果只是按照绘制命令的顺序进行渲染. (在D3D中绘制call = DrawPrimitive,或者glDrawBuffers等等)甚至可以保证订单在三角形级别上符合规范,即使图形卡非常平行,它们也会被拒绝并行发布原语.通过一次绘制调用的不同运行绘制的一致性.
如果使用深度缓冲区,那些碰巧在较低深度绘制的对象之后进行绘制调用的对象将覆盖这些近似对象(在视图空间中)并给出错误结果,深度缓冲区有助于逐个像素地丢弃,一个物体的像素,其深度(在视图空间中)比之前已经在此像素处渲染的物体更深,但具有更接近的深度.
绑定深度缓冲区也有助于提高性能,因为如果一个块中的每个像素都具有特定值的最小深度,则原始光栅化器在顶点缓冲区退出后知道原始图像的整个部分永远不会在该块上呈现,并丢弃整个街区.这称为早期Z剔除,对性能有很大帮助.所以最好保持深度缓冲器堵塞.
相机在低级图形理论中没有概念,它只是一个视图矩阵表示,它是一个应用于整个世界的逆变换,将世界从世界空间转移到视图空间,作为任何单个顶点变换计算的一部分.这就是为什么在经典顶点着色器中,位置取自对象空间(在顶点缓冲流中),然后乘以对象矩阵变换,然后乘以视图矩阵变换,然后是投影矩阵变换,然后光栅化器划分一切都用’w’来划分视角.
这是通过利用这种“创建”相机概念的管道行为. Unity必须通过暴露相机类来抽象所有这些.也许相机类甚至有一个“纹理目标”成员来解释这个相机的渲染将被存储的位置.
是的,渲染是直接指向指定的渲染纹理,没有中间前端缓冲或其他,渲染目标是硬件支持的功能,并且在渲染结束时不需要复制.
渲染目标本身就是一个完整的配置,因为硬件多重采样它实际上可以绑定所需分辨率大小的多个缓冲区.
存在颜色缓冲器,例如MSAA4x中的4个RGBA表面,深度缓冲器,其通常是24位表示的固定点,以及用于模板表面的8位.所有这些表面都代表渲染目标配置,并且是渲染所必需的.
我希望这有帮助
原文地址:https://codeday.me/bug/20190629/1325234.html
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。