bilibili|腾讯B站纷纷入局,虚拟人热火朝天!谁才是真元宇宙入口?( 四 )


此前 , 英国实时动作捕捉技术开发商IKinem也基于这样的模式推出了Orion 2.0产品 , 该产品通过与不同的硬件设备兼容 , 实现跟踪数字化身的全身运动轨迹 , 后来该公司以及其产品线被苹果收购 。
最后一种则是近期大火的以人工智能为核心的动作捕捉方案 , 借助设备上自带的摄像头 , 如iPhone里搭载的深感摄像头实现面部捕捉功能 , 并且通过深度学习 , 训练算法将2D图像转换成3D图像 , 从而让一些坐着的主播可以拥有一个活灵活现的虚拟形象 。
由于这种动作捕捉方案对硬件要求较低 , 多数依靠软件层的算法 , 因此具有较为广泛的应用空间和利润空间 。

▲以人工智能为核心的面部捕捉技术方案“如果对自由度和视角的要求不高的话 , 这类基于计算机视觉关键点识别的动捕方案 , 会是消费者和从业者比较容易接触到的 , 因为不会涉及到新的成本 , 好一点的手机上的摄像头就可以实现基础的身体与面部捕捉” , 国内动捕巨头公司诺亦腾CEO戴若犁说道 。
对于动作捕捉技术未来的发展 , 戴若犁提到 , 之前动作捕捉系统主要是面对科研、影视等专业领域 , 因此 , 在系统复杂度以及成本上基本上不太适用消费级市场 。 “在大家都过了新鲜劲之后 , 如果虚拟人赛道不再适用于消费者市场的话 , 未来的动捕技术还是会为面向专业领域的从业者服务” 。
2、主打Unreal和Unity渲染引擎 , 颜值和交互性成虚拟数字人渲染关键
除此之外 , 当人们通过不同的设备记录下自己的动作方案之后 , 还需要通过渲染引擎 , 对毛发、衣物等细节尽量还原 。 如果单从引擎性能上来说 , 游戏领域的渲染引擎达到最好的渲染效果 。 目前 , 国内虚拟数字人主要通过Unreal、Unity游戏引擎对人物形象进行渲染 。
据陈坚介绍 , 渲染成果主要关注好看和好用两个方面 。 其中 , 好看是指视觉效果上能做到什么样的精细程度 , 而好用功能上 , 首先要考虑多个角色同台时渲染的效果 , 在直播过程中能否及时调整细节 。 “这些才是决定你的虚拟数字人产品化程度的关键” 。
同时 , 据国外媒体报道 , Epic Games推出了云端流式应用MetaHuman Creator , 可以让用户在一小时时间内 , 不但能实现实时动作捕捉 , 还能完成人物的渲染 , 让用户可以轻松上手创建虚拟数字人 。

总而言之 , 目前的虚拟数字人主要依靠光学动作捕捉、惯性动作捕捉、Track设备+IK算法动作捕捉方案和以人工智能为核心的动作捕捉方案为主 。
并且 , 在渲染引擎上 , 厂商们主要通过Unreal、Unity完成人物渲染 , 在时间成本上也将渲染的时间缩短到一两天左右 。

三、制造难、交互难、成本高 , 虚拟数字人爆发还需解决三大难题近期 , 元宇宙概念爆火 , 不少行业人士提到元宇宙的落地可能会分为几个阶段 , 其中用户的数字分身可能会在第一阶段率先落地 , 因为无论是在虚拟世界里还是在物理世界中 , 人都是不可缺少的组成部分 。
尽管目前虚拟数字人赛道上已经逐渐升温 , 但距离虚拟数字人赛道爆发还差了一些“火候” , 比说在制造门槛等问题上 , 虚拟数字人发展仍然面临一些挑战 。
一方面 , 虚拟数字人的制造门槛仍是将绝大部分的用户拒之门外 , 不但无法让虚拟数字人赛道拥有更多样的玩法 , 同时也无法创造新的价值空间 。
另一方面 , 降低硬件的成本门槛也同样重要 。 在交流的过程中 , 陈坚告诉智东西为什么动作捕捉设备价格这么高 。 他谈到尽管看起来近期虚拟数字人概念比较火热 , 但产业上并没有太大的改变 。