发布时间:2017-08-17 11:18 | 标签:
迪士尼 VR社交
微信扫一扫:分享
微信里点“发现”,扫一下
二维码便可将本文分享至朋友圈
编译/VR陀螺 云吞
一份由迪士尼和多所大学研究人员联合发布的研究表明,一种基于深度学习的新的系统能够更好的处理动画角色在说话时的嘴部动作。这个系统能够实时捕捉人类说话的声音的动作,然后在生成的动画中同步自动展示。这一系统能够应用在多个领域,包括让社交VR的虚拟形象更加真实、富有交互感。
这份名为《A Deep Learning Approach for Generalized Speech Animation》的研究报告由迪士尼研究所、加拿大东加利福尼亚理工大学和卡内基梅隆大学的研究人员发表,描述了一种已经用“深度学习/神经网络”方法训练的系统,通过单个扬声器8小时的参考画面(2543句),教导系统根据不同的语音单元(称为音素)配合生成不同嘴型及其组合。
这一训练系统之后还可以被用来分析任何说话者的音频,并且自动生成嘴部的形状,然后应用到动画中。
创建与CGI字符的音频记录相匹配的语音动画通常由熟练的动画师手工完成。 虽然这个系统不能满足主要CGI制作的高保真语音动画,但它肯定可以用作这样的制作中的自动化首播,或者用于在可能的地方添加可传递的语音动画,比如在大型RPG游戏中的NPC对话上,以及那些没有预算聘请动画师的项目。
在VR中,系统可以用于通过在用户说话时实时化地实现虚拟形象的嘴部运动,使社交VR形象更逼真。 真正的嘴部跟踪(光学等)是用于虚拟形象的语音的最准确的方法,但是在口部跟踪硬件变得普遍之前,像这样的程序语音动画系统可以成为权宜之计。
关注微信公众号:VR陀螺(vrtuoluo),定时推送,VR/AR行业干货分享、爆料揭秘、互动精彩多。
投稿/爆料:tougao@youxituoluo.com
稿件/商务合作: 六六(微信 13138755620)
加入行业交流群:六六(微信 13138755620)