为什么现在游戏场景能做到的真实感比人物好很多呢?场景有些光追开高确实像照片拍出来的,但是感觉游戏人物几乎没有做的让我分不清是否真实过
是因为视角问题吗?还是建模精细程度问题?还是游戏人物大多带点非自然元素?还是动作不自然导致的?
死亡搁浅私以为算是做的比较好的,但是仍然没有太像真人。
望门友解惑
我猜大脑对人物更敏感,可能检查的更细致
上面说对人敏感,可能是主要原因。
另外可能,环境类别比较大,各种可能都有。而人范围比较小,需要更精确的编。
聊一些浅显的见解,如有错漏,敬请斧正。
人的原因
上面有朋友提到了,人眼对人更敏感。更具体地说,人的视觉对人的体态和面孔特别敏感,这是大多数动物共同的特点。例如一群黑猩猩可以轻易分辨彼此,而人看黑猩猩却觉得都差不多。黑猩猩并不是真的都一样,因为长期相处的研究人员也能分辨不同的黑猩猩个体,只是一般人的视觉对此关注程度不足,有“自动忽略”的倾向。
静物和环境也有类似的原因,例如
- 人眼对亮度的敏感性:人对亮度(明度)变化比对色相变化更敏感,所以不易分辨环境暗部的细节和质量。
- 人眼的视角限制:虽然人的双目视角能达到一百多度,但真正的集中视角非常小(应该是不到十度),对细节的注意力和分辨力也是中心强、边缘弱。所以大多数不会被注视的地方即使质量不那么好,也很难被察觉。
技术的原因
这个话题可以算对是人眼特点说明的自然延伸——人眼能注意到更多面部细节,所以渲染一副面孔经常要考虑很多复杂的生物特征、光学效应。下面我举几个例子,作抛砖引玉之用。
皮肤表面细节
人不是大理石雕像,没有人的皮肤是完美无瑕的,瘢痕、毛孔、绒毛等等细节极其多变,偏偏建模非常困难。通常的 PBR 那种描述粗糙度、金属度的方法,对皮肤来说是不够的,只好辅以大量特殊的贴图。
从几何尺度考量,它们都极小且不易近似,偏偏实时渲染流程中大量隐含的采样过程对高频信号极不友好,所以渲染起来代价很高;从视觉角度来看,一个人脸上有没有这些特征,却可以成为决定他在不在恐怖谷中的关键。
次表面散射
这是大名鼎鼎的光学效应了。只要你把手指放在手机的手电筒上,就能看到手指边缘呈现一种半透明质感。但这种半透明感与一般的透明物体不同,一般建模为不透明物体的表面上有很薄的一层半透明散射介质,需要用专门的方法来渲染。
其实雪地等材质也有次表面散射现象,但是雪地颜色均匀、细节不多,皮肤则全然不同,让次表面散射和皮肤细节配合良好是更难的事情。
小尺度不对称和细节动作
所有人的身体都不是完全对称的,脸部尤其如此。这种不对称属于“有了也看不出来,没有就有点奇怪”,所以艺术家建模的时候就非常难做,游戏这种实时渲染也不允许小小的面部有这么多几何数据。
另一方面,人的表情肌非常复杂——或者说是凡是脸上有肌肉的动物一般都挺复杂,但我们对人脸太敏感。然而现在的 mesh 形变机制并不是从肌肉的动力学出发生成脸部形变的,而是通过大量的动捕数据辅以人工建模完成。动捕可以很精细,但脸部可用的顶点很少,模仿人的微表情就很难很难。这也是为什么游戏人物的表情有时候显得不真实,又很难说出到底哪里不真实。
这种问题在专业数字人领域其实能部分解决,但代价可能是一张 4090 只能跑一个人脸,那么现在显然用不到游戏里。
我对渲染的了解很浅薄,上面这些应该都是老生常谈的问题,已经被大家讨论十几年了。但直到今天,还是能看到很多关于数字人的研究在探讨人的真实感渲染难题。而所有难题放到实时渲染里,难度就要上一个档次;放到游戏里,难度又上一个档次。不知道十年后再看游戏,能不能看到前两年黄仁勋演讲的数字人水平。
大概看懂了 佬不愧是佬 很大程度解释了这个问题
话说这么看计算机图形学真是还有很大的挖掘潜力啊