unity3d游戏引擎立体渲染教程
完美教室教程之立体渲染(Volumetric Rendering)。这些技术能突破现代3D引擎只能渲染物体外壳的大限制。立体渲染可以实现逼真的材质与灯光进行复杂的交互,例如雾、烟、水和玻璃。查看NMZ的Plasma Globe效果了解立体渲染的基本概念,如下图:
诚然,这些技术本身并不复杂,但实现上图效果需要非常多的步骤。本教程将为大家介绍以下概念:
篇:立体渲染。介绍立体渲染的概念以及在Unity中如何实现立体渲染。
第二篇:光线追踪。文章着重说明如何实现距离辅助的光线追踪,这是是渲染立体的事实性标准技术。
第三篇:表面着色。指引如何逼真地进行立体着色。
第四篇:有向距离场。一篇对于数学工具更深入的讨论,让我们能制作和组合任意几何体。
本文将介绍立体渲染的基本概念,并以一个简单的着色器收尾,后续的文章将以此为基础进行迭代:
介绍
第一部分 立体渲染
第二部分 立体射线投射
第三部分 固定步长的立体光线追踪
结论
介绍
在3D游戏引擎中,球体、立方体以及所有其它复杂的集合体都是由三角面片组成的。Unity采用的实时光照系统只能渲染平面。例如渲染球体,Unity仅绘制球体表面的三角形。尽管一些材质是半透明的,也只绘制表面并将其颜色与后面的物体进行混合。光照系统无法探测到材质的几何体的内部。对于GPU来说,整个世界就是由各种空壳构成的。
为了突破这种强大的限制,大量技术顺势而出。尽管传统着色器最终都会止于物体表面,但这并不意味着无法更深入。立体渲染技术可以在材质内部模拟光线的传送,从而实现更震撼也更真实的视觉效果。
立体渲染
无光照纹理的片段着色器如下:
fixed4 frag (v2f i) : SV_Target { fixed4 col = tex2D(_MainTex, i.texcoord); return col; }
不严格地说,上述代码会为最终渲染图像每一个可能的像素(片段)调用。GPU会在有三角形与相机视锥体相交时,调用该片段着色器。换句话说,就是相机“看见了”该对象。Unity需要知道该对象的实际颜色,以便将其分配到渲染图像的各个像素。
片段着色器最后返回的对象,是从特定角度看过去特定位置的颜色。这种方式计算的颜色是完全随意的,因此返回的内容可以不必匹配几何体的真实渲染情况。下图展示了一个3D立方体的例子。当片段着色器检测到立方体表面的颜色时,我们获得的颜色如同我们在一个球体上所看到的。这个几何体是个立方体,但是从相机的角度来看,它的外观和感觉其实“酷似”一个球体。
这就是立体渲染(Volumetric Rendering)的基本概念:模拟光线在物体内部的传送。
如果想模拟前面的效果,就要更地进行描述。假设主物体是一个立方体,要在其内部立体渲染一个球体,实际上并不存在这个球体,因为我们将完全通过着色器代码来渲染。球体中心点位于_Centre,半径是_Radius,均为世界坐标。移动立方体不会影响球体位置,因为它是完全以世界坐标系来表述的。外部的几何体也不会对该球体造成任何影响。立方体表面的三角形就是通向几何体内部的窗口。虽然可以使用四边形(Quad)减少三角形数量,但要能从立方体的任意角度观看该球体。
立体射线投射
种立体渲染的方式完全适用于实现前文所述的效果。片段着色器接收要渲染的点(wolrdPosition)以及视线方向(viewDirection),然后使用raycastHit函数检测是否投射到红色球体。这种技术叫做立体射线投射(Volumetric Raycasting),它将射线从相机投射到几何体内部。
在片段着色器函数中添加剩下的代码:
float3 _Centre; float _Radius; fixed4 frag (v2f i) : SV_Target { float3 worldPosition = ... float3 viewDirection = ... if ( raycastHit(worldPosition, viewDirection) ) return fixed4(1,0,0,1); // Red if hit the ball else return fixed4(1,1,1,1); // White otherwise }
下面来解释代码中的其它变量。
世界坐标
首先,片段的世界坐标就是从相机生成的射线投射到几何体上的点。在片段着色器中获取世界坐标的代码如下:
struct v2f { float4 pos : SV_POSITION; // Clip space float3 wPos : TEXCOORD1; // World position }; v2f vert (appdata_full v) { v2f o; o.pos = mul(UNITY_MATRIX_MVP, v.vertex); o.wPos = mul(_Object2World, v.vertex).xyz; return o; }
视线方向
其次,视线方向就是射线从相机投射到几何体上被渲染的点的方向。这里需要知道相机坐标,Unity已内置了该变量 _WorldSpaceCameraPos。计算通过两点的射线方向可使用如下代码:
float3 viewDirection = normalize(i.wPos - _WorldSpaceCameraPos);
Raycast Hit函数
当我们知道了渲染点的坐标和方向后,现在需要使用raycastHit函数来决定射线是否投射到了虚拟的红色球体上。这就是球体与线段相交的问题,这种问题已有惯用解决方案,但通常效率不高。如果需要更具分析性的方法,就需要自行解决线段与自定义几何体相交的问题。这种方案极大限制了可以创建的模型,所以很少被应用。
固定步长的立体光线追踪
上面提到纯分析式的立体射线投射,其实不适合解决这里的问题。如果希望模拟任意几何体,就要找到不依赖于相交方程的更为灵活的技术。常见的解决方案叫做立体光线追踪(Volumetric Raymarching),是基于迭代的解决方案。
立体光线追踪会缓慢地将射线投射到立方体内,每一步都会检测当前是否已投射到红色球体。
每条射线均从片段坐标worldPosition开始,然后迭代沿着viewDirection的方向投射STEP_SIZE单位长度。这可以通过每次迭代为worldPosition加上STEP_SIZE * viewDirection 来实现。
用下面的raymarchHit函数代替之前的raycastHit:
#define STEPS 64 #define STEP_SIZE 0.01 bool raymarchHit (float3 position, float3 direction) { for (int i = 0; i < STEPS; i++) { if ( sphereHit(position) ) return true; position += direction * STEP_SIZE; } return false; }
下面的函数用于检测点p是否位于球体内:
bool sphereHit (float3 p) { return distance(p,_Centre) < _Radius; }
线段与球体相交很难,但迭代检测点是否位于球体内就很简单了。结果见下图,别看它看起来就是个圆形,实际上这就是个无光照的球体:
结论
本文介绍了基本的立体渲染概念。尽管传统着色器只能渲染材质的外壳,但还是有办法让光线穿透到材质内部的几何体,创造画面的深度。光线追踪就是常用的技术,本文用该技术在立方体内绘制了一个红色球体。后面的教程将分享如何逼真地着色(第三篇表面着色)以及如何做出一些有趣的形状(第四篇 有向距离场)。最终将能够使用简单几行代码和一个立体渲染着色器实现如下效果:
请联系网站,了解详细的优惠课程信息~
优质、、便捷、省心
网上报名
新闻资讯
更多>>-
Yahoo成功举办H5游戏高峰会
2016-11-01