Character.AI 推出 AvatarFX 模型:AI 实现静转动,让图片角色开口说话
故渊| IT之家| 2025-04-23
【流媒体网】摘要:Character.AI推出AvatarFX模型,采用先进SOTA DiT-based技术实现高保真效果。

  Character.AI公司在 X 平台发布推文,宣布推出 AvatarFX 模型,能够让静态图片中的人物“开口说话”。

  用户只需上传一张图片并挑选一个声音,平台即可生成会说话、会移动的形象。这些形象还能展现情感,呈现出令人惊叹的真实感和流畅度。

  公司表示,这得益于一种名为“SOTA DiT-based diffusion video generation model”的先进 AI 模型。该模型经过精心训练,结合音频条件优化技术,能高效生成高质量视频。

  AvatarFX 的技术亮点在于其“高保真、时间一致性”的视频生成能力。即便面对多角色、长序列或多轮对话的复杂场景,它也能保持惊人的速度和稳定性。与 OpenAI 的 Sora 和 Google 的 Veo 等竞争对手相比,AvatarFX 并非从零开始或基于文本生成视频,而是专注于将特定图片动画化。

  这种独特的工作流程为用户提供了新颖体验,但也带来了潜在风险。用户可能上传名人或熟人照片,制作看似真实的虚假视频,引发隐私争议。

责任编辑:凌美

分享到:
版权声明:凡注明来源“流媒体网”的文章,版权均属流媒体网所有,转载需注明出处。非本站出处的文章为转载,观点供业内参考,不代表本站观点。文中图片均来源于网络收集整理,仅供学习交流,版权归原作者所有。如涉及侵权,请及时联系我们删除!

今日聚焦更多

【论道PPT】互动媒体推委会杨崑:重新定义大屏
【论道PPT】CSM媒介研究黄婧玫:创新突围——全媒体环境中大屏生态破局
【论道PPT】勾正科技喻亮星:留量时代破局之道,域协同,技术+内容构建经营新范式
【论道PPT】互动媒体推委会杨崑:重新定义大屏
【论道PPT】CSM媒介研究黄婧玫:创新突围——全媒体环境中大屏生态破局