Runtime MetaHuman Lip Sync(AI驱动的NPC口型同步)v5.7是一款专为MetaHuman及自定义角色设计的实时口型同步解决方案,支持完全离线运行,兼容多平台环境。该资源包提供三种不同精度的模型,满足多样化的项目需求:
- **情绪感知真实模型**:基于12种情绪(如喜悦、悲伤、自信、激动等)实现情感感知的面部动画,支持情绪强度调节与智能预判时序,提升角色表达的自然度与真实感。
- **高保真真实模型**:针对MetaHuman角色优化,采用81个面部控制点,实现更细腻、更自然的嘴部动作,显著增强角色面部动态的视觉表现力。
- **标准模型**:兼容MetaHuman及各类自定义角色,支持14种口型(visemes),具备良好的通用性与稳定性,适用于对性能要求较高或跨平台部署的场景。
该技术实现零延迟、实时口型同步,无需联网,可直接集成至项目中,通过语音输入即可驱动角色自然对话,大幅降低开发成本,提升虚拟角色互动的真实感与沉浸感。支持CC4、Genesis、ARKit等多种角色模型格式,为开发者提供灵活的适配方案。