描述
ℹ️ 注意:包含插件示例和演示项目的图像是使用运行时音频导入器和/或运行时文本转语音/运行时AI聊天机器人集成器插件创建的。因此,要遵循这些示例,您还需要安装这些插件。但是,您也可以实现自己的音频输入解决方案而不使用它们。
🗣️ 三种高级模型满足每个项目需求!
通过零延迟、实时的嘴唇同步为您的MetaHuman和自定义角色赋予生命!现在提供三种质量模型以满足您的项目需求:
🌟 支持情绪的真实模型 – 用于MetaHuman角色的情感感知面部动画,具有12种不同情绪(快乐、悲伤、自信、兴奋等),可配置强度和智能前瞻定时
🌟 真实模型 – 专门为MetaHuman角色增强的视觉保真度,具有更自然的嘴部动作(81个面部控制)
⚡️ 标准模型 – 与MetaHuman和自定义角色的广泛兼容性(14个音位)
通过完全离线和跨平台的无缝实时嘴唇同步转换您的数字角色!观看您的角色自然响应语音输入,以最少的设置创建沉浸式和可信的对话。
快速链接:
-
🌐 产品网站
-
📦 演示源文件 (UE 5.6) – 需要此插件 + 运行时音频导入器,可选:文本转语音/AI聊天机器人。标准模型需要一个小型扩展插件(参见文档)。
-
📄 文档
-
📌 定制开发:solutions@georgy.dev (为团队和组织提供量身定制的解决方案)
最新视频教程:
高质量(真实模型)教程:
标准模型教程:
一般设置:
-
🎥 设置教程视频
🚀 主要功能:
-
实时嘴唇同步来自麦克风输入和任何其他音频源
-
情感表达控制具有12种不同情绪和可配置强度
-
动态笑声动画从检测到的音频线索
-
像素流麦克风支持 – 启用基于浏览器输入的实时嘴唇同步!
-
离线处理 – 不需要互联网连接
-
跨平台兼容性:Windows、Mac、iOS、Linux和Meta Quest
-
为所有平台上的实时性能优化
-
适用于MetaHuman和自定义角色:
-
流行的商业角色(Daz Genesis 8/9、Reallusion CC3/CC4、Mixamo、ReadyPlayerMe)
-
基于FACS的角色模型
-
ARKit混合形状标准
-
任何具有自定义面部表情变形目标的角色
-
-
多种音频源:
🌟 完美配合使用:
-
运行时音频导入器 – 用于麦克风捕获和音频处理
-
运行时文本转语音 – 用于本地(离线)文本转语音
-
运行时AI聊天机器人集成器 – 用于ElevenLabs和OpenAI文本转语音
©版权声明:本站除原创作品外的资源均收集于网络,只做学习和交流使用,版权归原作者所有,若作商业用途,请购买正版。



评论0