本文共 1677 字,大约阅读时间需要 5 分钟。
英伟达在BIRTV 2017上,展示其最新的图像解决方案。
一年一度的北京国际广播电影电视展(下文简称“BIRTV 2017”)可以说是广播电视行业的技术风向标,而在今年第26届BIRTV上,近年来在计算领域新招频出的英伟达带来了诸多的惊喜。
在BIRTV 2017上,英伟达展示了旗下一系列适用于传媒娱乐领域各类专业工作流程的GPU渲染和VR技术,包括NVIDIA Quadro视觉计算设备 (VCA) 、以及基于NVIDIA Quadro专业图像解决方案的8K视频实时编辑、VR 全景实时渲染等。
同时,他们现场演示了之前推出的Project Holodeck、以及合作伙伴Foundry公司的NUKE特效合成软件和MODO高级三维建模软件。
在此前的SIGGRAPH 2017上,英伟达就已经展示他们基于人工智能的强大图像渲染能力,而在娱乐传媒领域,神经网络和人工智能正在改变传统的影像内容制作。比如神经网络会自动根据场景描述生成场景图片,模仿各种艺术家的风格,将普通的图片内容转化为相对应的风格。
在BIRTV 2017上,英伟达中国区业务拓展总监何犹卿介绍了他们具有强大光线追踪功能的OptiX 5.0,“在NVIDIA DGX Station上运行OptiX 5.0,能够为设计师、艺术家和其他内容创作者提供相当于150个基于标准CPU服务器的渲染能力。”
另外借助英伟达 GPU和深度学习,能够在保证计算机运行速度和性能的同时,更轻松地实现逼真的影视特效效果,实现更快地渲染图像。在一些细节工作上,英伟达还通过大量的视频文本训练,让CG角色直接模仿出现实中人说话的微表情动作变化,不再需要后期人员再一帧帧的自己制作。
在方面,NVIDIA 也一直致力于帮内容开发者更快、更高效地利用GPU制作出更好的VR内容,这其中不得不提到他们的VRWorks SDK。VRWorks SDK主要包括四个方面的内容:360 度视频捕捉、图像渲染、音效、物理特性和触感。
英伟达的业务人员在BIRTV 2017上着重介绍了360度视频捕捉方面的内容。英伟达于去年SIGGRAPH 2016时推出了LIVE 360 MONO,今年SIGGRAPH 2017上推出了LIVE 360 STEREO,相比较只能实现单声道的MONO,“STEREO相当于两只眼睛的视觉渲染,达到更有沉浸感的效果。”
而VRWorks 360 Video SDK支持实时&离线视频拼接、Mono和Stereo方案、最高支持32路的4K视频输入。
目前,内容制作者可以去英伟达官网下载360 Video SDK。
在展位现场,英伟达还设置了专门的Project Holodeck体验间。
今年5月推出的Project Holodeck类似于一个虚拟现实环境,它让参观者亲自体验其如何帮助创意工作者将高保真、全分辨率的模型导入到虚拟现实系统,并融合视觉、听觉和触觉等现实体验,从而提供逼真的协作型工作场景。
相比较我们现在的虚拟内容,Project Holodeck可以根据物理条件去模拟出包括触觉在内的一些物理特效,比如让你摸到的东西是有真实物理触觉反馈。在现场演示的“超跑demo”中,该汽车有五千多万个面组成,在虚拟环境中,你可以随意调整汽车的颜色、测量车轮的大小,甚至是解剖整个汽车的零部件等。
既然是多人协作的虚拟工作环境,英伟达的工作人员表示只要网络条件允许,再加上一台强力的NVIDIA机器加速,就能实现异地协同工作。
所以Project Holodeck可以解决VR里面实时操作、多人协同的问题。虽然现阶段的开发版本只针对汽车制造业。但是实际上未来是可以应用于更多有此类需求的其他领域,例如建筑行业,让更多行业领域从业者能够从其中受益。
转载地址:http://stqbx.baihongyu.com/