【慧聪广电网】未来的图形技术将由AI引领。
在2020 SIGGRAPH线上大会,NVIDIA展示了各种先进的AI技术。这些技术能够让艺术家提升故事创作的效果,并创建前所未有且令人惊叹的照片级逼真环境。
NVIDIA的工具和软件为许多添加到创意工具和应用中的AI增强功能奠定了基础,包括去噪、加速8K编辑工作流程、加强材质创建等功能。
以下我们将介绍部分NVIDIA最令人欣喜的工作成果,包括增强视觉效果工作流程的最新NanoVDB库。更有NVIDIA 开创性研究,基于AI的演示以及精彩演讲,带大家探索实时光线追踪和AI的全新可能。
NVIDIA以全新NanoVDB扩展OpenVDB
OpenVDB是视效工作室用于模拟水、火、烟雾、云和其他效果的行业标准库。作为推进电影和媒体行业开源软件合作的组织之一,Academy Software Foundation(ASWF)于近期宣布通过全新NanoVDB在OpenVDB中实现GPU加速,从而加快性能并简化开发流程。
OpenVDB提供分层数据结构和相关功能,助力提升计算图形应用中的体积效果。NanoVDB是OpenVDB的基础,为本地VDB数据结构添加GPU支持。
通过NanoVBD,用户可以使用GPU加速光线追踪、过滤和碰撞检测等工作流程,同时保持与OpenVDB的兼容性。NanoVDB是连接现有OpenVDB工作流程与GPU加速渲染或仿真模拟(包含静态稀疏体积)之间的“桥梁”。
合作伙伴对NanoVDB的评价
SideFX高级数学家Jeff Lait表示:“由于NanoVDB将被添加到即将发布的Houdini 18.5版本中,我们已将Vellum Solver的静态碰撞和PyroSolver的来源转移到GPU上,为艺术家提供他们渴望已久的性能和更流畅的体验。”
ILM高级软件工程师Dan Bailey表示:“ILM始终是使用GPU技术模拟和渲染密集体积的先行者。我们很高兴看到NanoVDB成为了ASWF的托管项目,并且在GPU上实现高效的稀疏体积执行。我们已经迫不及待地想在制作中尝试一下。”
Pixar主软件工程师Julian Fong表示:“我们仅花了几天的时间就将NanoVDB集成到新一代渲染器未经优化的光线行进原型中。相比当前基于CPU的Render Man/RIS OpenVDB参照值,我们在GPU实现了数量级的改进。我们将把NanoVDB加入到新一代多设备渲染器RenderMan XPU的GPU加速流程当中。”
研究成果“闪亮”全场
在SIGGRAPH期间,NVIDIA Research和合作者分享了最先进的实时光线追踪技术以及在图形和设计方面的其他突破。
你可以了解到让艺术家高效渲染数百万动态光源直接照明的新算法,通过非线性三色点组合探索新的色彩世界,并了解渐变色的扩展如何帮助艺术家增强图像编辑和压缩。
同时,你还能获得业内顶尖专家对于未来设计的见解:
•Omniverse:了解计算机图形和仿真模拟平台NVIDIA Omniverse的最新更新。该平台让使用主流内容创作应用的艺术家可以实时、无缝地开展协作。
•OptiX7 RTX加速光线追踪:了解OptiX背后的通用概念以及如何充分优化应用程序以发挥现代GPU硬件光线追踪核心的全部性能。
•实现机器学习:从创意到生产工具:来自NVIDIA 、WetaDigital、育碧游戏(Ubisoft)等公司的专家将讨论机器学习如何加强计算机图形制作。
•与AWS一起参加线上圆桌会议或者与微软一起访问我们的虚拟展位,进一步了解Quadro虚拟工作站和应用案例。
不容错过的精彩演示
在今年的SIGGRAPH上,NVIDIA 将在演示中展示AI增强工具和GPU仿真模拟如何引领内容创作的新时代:
•使用StyleGAN2合成高分辨率图像:NVIDIA Research开发的StyleGAN借助迁移学习制作各种绘画风格的画像。
•火星着陆器仿真模拟:美国国家航空航天局(NASA)科学家使用高分辨率的逆向推进仿真模拟规划如何在不同着陆条件下控制着陆器的速度和方向。
•BlenderAI去噪:OptiXDenoiser等RTXAI功能加强渲染,提供交互式光线追踪体验。
•RTXStudio笔记本电脑8K视频编辑:高级视频编辑和视觉效果GPU加速,包括DaVinciResolve中的AI功能,可帮助剪辑者制作高质量的视频并加快迭代速度。
创新不停,突破不止!马上注册NVIDIA 将在10月5日至9日举办的GTC,了解更多NVIDIA 最新的工具和技术。
关于NVIDIA
NVIDIA (纳斯达克股票代码:NVDA)在1999年发明的GPU激发了PC游戏市场的增长,重新定义了现代计算机显卡,并且对并行计算进行了革新。最近,通过将GPU作为可以感知和理解世界的计算机、机器人乃至自动驾驶汽车的大脑,GPU深度学习再度点燃了全新的计算时代——现代人工智能。