, Q5 E% C5 r! ]% `据悉,目前 Cocos 基于虚拟人已实现了建模、口型、动捕、渲染、AI 接入五大关键技术。 : X& n9 u S$ U; M& K: P - m" F- v5 k$ z+ ^ N K高度自定义角色编辑 & AI 建模% r& R# x; q$ ?
4 c2 \/ o8 d, o' Q8 W/ U# _2 @预置角色模型拥有多达 263 个脸部、身体调节系数,支持用户自主开发独一无二的虚拟形象。同时 AI 建模技术能让用户利用照片快捷生成真人数字化身。! u0 Z3 b2 U+ E" l: o4 ?' s
5 R, }; f, K4 c+ ?* [实时渲染 4 K0 i2 k5 b% S5 ]) h5 @5 i8 Z' v5 }8 x3 B+ N2 E/ O5 F
渲染能力对虚拟角色来说非常重要,这也是 Cocos 引擎所提供的一项基础能力。 ! e* ]- U* N: C& d P: B$ s# C R+ [! U4 V& g* i
渲染分非实时渲染和实时渲染两种逻辑。以前影视剧、动画中逼真、漂亮的虚拟角色,大多是离线,非实时渲染出来的,先给虚拟角色做好 3D 模型,再在离线渲染器中渲染出来。这类虚拟角色的存储格式是视频,交互较困难,无法做到和人进行交互。( ]' P: ^6 x) y$ x. {
% S1 R1 q4 Z1 N; J9 R
如果希望虚拟角色能够像真人一样说话,并展现相应的表情和体态动作,让人觉得是舒服、有温度的交流,这就需要有实时渲染的能力。现在大量数字人应用场景里的虚拟助手、身份 IP、偶像 IP 等,都要求虚拟角色被实时渲染出来,且能够被驱动起来,包括脸部驱动、身体、动作、手势驱动等。让虚拟角色在移动端能够跑起来且能够跟人做实时交互,这也需要用较小的算力把虚拟角色渲染出来。此外,在虚拟角色应用的场景里,如在虚拟角色在元宇宙里开会、办公、展览等,这些场景实现都依赖实时渲染能力。; _8 S& Y& d# Z2 {1 g: w
5 C& `! k* z4 V8 q, L# T与卡通、二次元类的虚拟角色相比,写实的虚拟角色对渲染管线的要求更高,且需要采用不同的渲染技术,如次表面反射、双向反射分布函数等。Creator 3.6 版本在 3D 画面渲染能力上,重点优化了对 3D 内容非常重要的材质导入功能与渲染算法,包括 Su**ce Shader 自定义材质、CSM 级联阴影、各向异性光照模型、GGX 环境反射卷积图等,以达到更好的渲染效果。( o, h, f- Y3 H
# P3 T0 r; ^ ~5 I" I( O2 J/ k人物动态捕捉及采集技术' d9 @# e2 |$ Y" t+ ~
J V1 V0 o3 I
骨骼动画重定向后能让虚拟人拥有无限的动作表现潜能。一张照片、一段视频,无需专业动捕演员,你的虚拟形象便能拥有精彩的动作表现。0 L. C1 u9 Q2 V5 i4 J+ U: w5 _
* b2 x. X) K4 y
Cocos 已经实现了用通用摄像头进行中低精度动作捕捉。基于视觉的动作捕捉分为 TOF、激光、基于 RGB-D 摄像头和直接基于普通的 RGB 的摄像头做形象、图像等信息采集。 ' Q1 V$ G1 u4 u4 t . y0 Q+ T7 T; g5 m6 X+ |目前 Cocos 正在尝试通过 RGB-D 的摄像头采集数据进行 AI 训练解决动作捕捉遮挡定位与 3D 空间关系问题。基于 AI 训练能够自动补全视觉当中图像未可见部分的手部、脚部等 3D 空间位置,自动预判躯干前后遮挡关系。 1 |; F6 j- V; ]" B" S8 C% h. D/ ~3 p, I
面部系统捕捉技 N$ N' L8 I& ]
3 u* ]( b" f- A( K! J# [
Cocos 实现了高精度实时表情捕捉技术,利用大量视频数据来训练模型,最终产生高质量的连续变形体(Blendshape)权值输出,用于驱动完整的虚拟角色,实时表情捕捉效果与离线效果相近,可实现高精度捕捉。; X' n- d; p7 ^- U# V8 {1 F, S. b