温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

计算机中渲染吃显卡还是cpu

发布时间:2021-06-28 11:37:31 来源:亿速云 阅读:262 作者:小新 栏目:互联网科技

这篇文章主要介绍计算机中渲染吃显卡还是cpu,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

渲染一般也是更吃CPU,显卡没CPU重要的,不过专业显卡和一些A卡也能起到加速作用;在3D建模里起到的作用也很大,甚至比CPU还重要点。

本教程操作环境:windows7系统、Dell G3电脑。

渲染是一个十分有魔力的东西,比如就一张动画图片,如果经过渲染则看起来跟真的一样…

计算机中渲染吃显卡还是cpu

这是动画片片段的渲染后的效果,大家可以看到其第二章图片简直如同实拍了,早些年我们只能在一些比较大的电影中看到渲染效果,“为了渲染《阿凡达》,维塔数码动用了占地10,000平方英尺的服务器群 。其中有4,000台服务器,共35,000个处理器核心。单机渲染一帧的平均时间为2小时,160分钟的影片, 整体渲染时间需要2880000小时,相当于一台服务器要工作328年!”

我们一般认为“牛掰”的效果,经常需要特效师一帧一帧的描绘,一帧就是一张图片。在一部电影中,每秒最少有24帧。想象一下,即使我们看到的特效画面只有十秒,对特效师来说,那就是240张图片!然而,做特效不是最慢的,渲染特效才是最慢的……即使用性能很高的电脑,渲染一帧所需的时间还是有可能达到48个小时!另外,渲染会拖慢电脑的运行速度。如果后台正在进行渲染,特效师大概就没办法用这台电脑工作了……这些种种原因,加上电脑死机等不可控因素,特效师们常常因为渲染问题,没办法在制片人规定的时间内完成工作…… 而且,维持电脑渲染所需要的人耗、物耗、电耗对制作公司来说也是一笔不小的费用!

计算机中渲染吃显卡还是cpu

一、渲染吃CPU还是吃显卡呢?

其实两者都是同时用的,但因为精度和效率要求不同,而有所偏重罢了。

CPU的计算非常精准,可以用来计算精度要求极高的项目

如果形容CPU计算的话,可以将其理解为一个博士级别的计算者。

而显卡的计算单元则相对简单很多,它适合用来计算比较简单的项目。

所以显卡计算可以理解成为小学生级别的计算者。

而电脑在对任务做分配时,会将简单的计算丢给显卡,CPU则负责显卡无法承担的复杂计算。

渲染的话一般也是更吃CPU,显卡没CPU重要的,不过专业显卡和一些A卡也能起到加速作用,在3D建模里起到的作用也很大,甚至比CPU还重要点

举个例子来说,显卡可能只负责几个数据加减乘除的运算,而且精度有限,只能算出个整数来。

但CPU则要进行方程、数组、积分等等方法的计算,还可以精确到小数点后十几位。

游戏首重于实时还原,情节体验,对色彩和型的要求不高,或者说对精度要求较低。

所以游戏在设计之初,就将很多复杂计算给简化或舍弃了。所谓3D引擎就是这个概念,把很多复杂的运算方式给简化或大量分解出来,从而让显卡计算得到加强。

而这些简化的结果就是:RGB偏差差个几点无所谓,反光计算、散射、虚焦、模糊等等有些许偏差或薄弱。但这些相对于运动节奏和情节的完整来说,也都是次要的了。

而对于更高要求的专业计算来说,以上各项都关联到某种计算方法的正确与否,哪怕是零点几个数据的差池都会造成其余关联计算工作的重大失误,所有累积的误差,将会使最终结果难以预料和控制。

所以,即使是专业计算中,那些大量依赖验卡的计算,比如一些基于CUDA的3D效果计算,也多是属于有偏差计算。在真正商业化、专业级的影视效果中,只属于“参考答案”罢了,往往还要进行更多的后期调整和处理才能使用。而只有完全依靠CPU计算的才是较为可靠的结果。

以上是“计算机中渲染吃显卡还是cpu”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注亿速云行业资讯频道!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI