unity摄像机深度图使用[通俗易懂]

unity摄像机深度图使用[通俗易懂]https://www.jianshu.com/p/80a932d1f11ehttps://www.jianshu.com/p/178f3a065187https://www.cnblogs.com/czaoth/p/5830735.htmlhttps://www.cnblogs.com/jackmaxwell/p/7117909.htmlhttps://docs.unity3d.com/…

大家好,又见面了,我是你们的朋友全栈君。

https://www.jianshu.com/p/80a932d1f11e
https://www.jianshu.com/p/178f3a065187
https://www.cnblogs.com/czaoth/p/5830735.html
https://www.cnblogs.com/jackmaxwell/p/7117909.html
https://docs.unity3d.com/540/Documentation/Manual/SL-Pass.html
http://www.lsngo.net/2018/01/20/unity_depthtextureprojector/
https://blog.csdn.net/puppet_master/article/details/77489948

本篇博客主要是解决,深度图的原理与例子实现问题。
下面我们直接用unity的脚本和shader,介绍如何使用unity给我们提供的深度图。
C#脚本:

using System.Collections;
using System.Collections.Generic;
using UnityEngine;

[ExecuteInEditMode]
public class DepthTextureTest : MonoBehaviour
{ 
   
    private Material postEffectMat = null;
    private Camera currentCamera = null;

    void Awake()
    { 
   
        currentCamera = GetComponent<Camera>();
    }

    void OnEnable()
    { 
   
        if (postEffectMat == null)
            postEffectMat = new Material(Shader.Find("DepthTexture/DepthTextureTest"));
        currentCamera.depthTextureMode |= DepthTextureMode.Depth;
    }

    void OnDisable()
    { 
   
        currentCamera.depthTextureMode &= ~DepthTextureMode.Depth;
    }

    void OnRenderImage(RenderTexture source, RenderTexture destination)
    { 
   
        if (postEffectMat == null)
        { 
   
            Graphics.Blit(source, destination);
        }
        else
        { 
   
            Graphics.Blit(source, destination, postEffectMat);
        }
    }
}

shader代码:

Shader "DepthTexture/DepthTextureTest"
{ 
   
	CGINCLUDE
		#include "UnityCG.cginc"
		sampler2D _CameraDepthTexture;

		fixed4 frag_depth(v2f_img i) : SV_Target
		{ 
   
			float depthTextureValue = SAMPLE_DEPTH_TEXTURE(_CameraDepthTexture, i.uv);
			//float linear01EyeDepth = LinearEyeDepth(depthTextureValue) * _ProjectionParams.w;
			float linear01EyeDepth = Linear01Depth(depthTextureValue);
			return fixed4(linear01EyeDepth, linear01EyeDepth, linear01EyeDepth, 1.0);
		}
	ENDCG

	SubShader
	{ 
   
		Pass
		{ 
   
			ZTest Off
			Cull Off
			ZWrite Off
			Fog{ 
    Mode Off }

			CGPROGRAM
			#pragma vertex vert_img
			#pragma fragment frag_depth
			ENDCG
		}
	}
}

最终结果:
在这里插入图片描述

上面用到了这个宏:SAMPLE_DEPTH_TEXTURE
原型如下:

#define SAMPLE_DEPTH_TEXTURE(sampler, uv) (tex2D(sampler, uv).r)

这句代码也可以写为:
tex2D(_CameraDepthTexture, i.uv).r;

从视空间深度转化到屏幕空间深度的公式如下:
a = F/(F – N)
b = NF/(N – F)
最终depth(屏幕空间)=(aZ + b)/Z (Z为视空间深度)

我们在屏幕空间使用屏幕空间的坐标进行插值,得到逐像素的坐标。
屏幕空间的深度是和1/z成正比的。
那么经过透视变换、透视投影之后,得到的是屏幕空间的深度值,而我们需要使用视空间下的z才好计算,所以需要反推得到视空间下的深度z。
在这里插入图片描述
在这里插入图片描述
Linear01Depth原型:

// Z buffer to linear 0..1 depth
inline float Linear01Depth( float z )
{ 
   
    return 1.0 / (_ZBufferParams.x * z + _ZBufferParams.y);
}

这地方的推导有点问题:

// Values used to linearize the Z buffer (http://www.humus.name/temp/Linearize%20depth.txt)
// x = 1-far/near
// y = far/near
// z = x/far
// w = y/far
// or in case of a reversed depth buffer (UNITY_REVERSED_Z is 1)
// x = -1+far/near
// y = 1
// z = x/far
// w = 1/far
float4 _ZBufferParams;

LinearEyeDepth原型:

// Z buffer to linear depth
inline float LinearEyeDepth( float z )
{ 
   
    return 1.0 / (_ZBufferParams.z * z + _ZBufferParams.w);
}

z&1/z
通过上面的深度图具体的使用,我们发现,实际上真正使用的深度,是从顶点的视空间在,经过投影变成一个1/Z成正比的值(屏幕空间Depth),然后在使用时,再通过投影变换时的计算公式反推回对应视空间像素的位置Z。
https://developer.nvidia.com/content/depth-precision-visualized

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/129926.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 微信公众号基础功能搭建怎么弄_怎么做一个订阅号

    微信公众号基础功能搭建怎么弄_怎么做一个订阅号自动回复在微信公众号后台首页左侧导航栏中找到功能。然后点击自动回复。自动回复包含被关注回复、收到消息回复和关键词回复三项内容自定义菜单

    2025年7月6日
    0
  • HDU 4778 内存搜索&amp;如压力

    HDU 4778 内存搜索&amp;如压力

    2022年1月13日
    38
  • JAVA日本免费动漫_漫画 | Java多线程与并发(一)

    JAVA日本免费动漫_漫画 | Java多线程与并发(一)1、什么是线程?2、线程和进程有什么区别?3、如何在Java中实现线程?4、Java关键字volatile与synchronized作用与区别?volatile修饰的变量不保留拷贝,直接访问主内存synchronized用来修饰一个方法或者一个代码块的时候,能够保证在同一时刻最多只有一个线程执行该段代码5、有哪些不同的线程生命周期?6、你对线程优先级的理解是什么?7、什么是死锁(Deadlock)…

    2022年7月7日
    28
  • jvm的垃圾回收算法_jvm垃圾回收策略

    jvm的垃圾回收算法_jvm垃圾回收策略前言相比C语言,JVM虚拟机一个优势体现在对对象的垃圾回收上,JVM有一套完整的垃圾回收算法,可以对程序运行时产生的垃圾对象进行及时的回收,以便释放JVM相应区域的内存空间,确保程序稳定高效的运行,但在真正了解垃圾回收算法之前,有必要对JVM的对象的引用做一个简单的铺垫JVM对象可达性分析算法Java虚拟机中的垃圾回收器采用可达性分析来探索所有存活的对象扫描堆中的对象,看是否能够沿着GCRoot对象为起点的引用链找到该对象,找不到表示可以被回收想象一下,对象在什么情况下会被认为是垃圾对象呢?

    2022年9月11日
    0
  • axios配置请求头content-type「建议收藏」

    axios配置请求头content-type「建议收藏」axios是Ajax的一个插件,axios虽然是一个插件,但是我们不需要通过Vue.use(axios)来使用,下载完成后,只需在项目中引入即可。(一般我们放在了请求接口的公共文件中引用)npminstallaxios-Saxios发送post请求时默认是直接把json放到请求体中提交到后端的,axios默认的请求头content-type类型是’application/json;charset=utf-8’.content-type的三种常见数据格式://1默认.

    2022年8月24日
    6
  • 霍金:外星人存在但别主动去寻找(组图)

    霍金:外星人存在但别主动去寻找(组图)

    2021年8月6日
    65

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号