博客 科技 通义千问App也“EMO”啦! 一段音频就能驱动照片唱歌

通义千问App也“EMO”啦! 一段音频就能驱动照片唱歌

本文转自:每日商报

商报讯(记者 王彬彬)近日,又一款AI模型EMO上线通义千问App。输入一段音频、一张照片,就能让图中人物开口唱歌说话,让奥黛丽赫本唱《上春山》、陶俑仕女说英文RAP、爱因斯坦说中文段子。这是继现象级应用“全民舞王”在社交平台掀起“兵马俑跳科目三”“金毛跳舞”热潮后,通义千问解锁的又一种AI模型新玩法。

用户打开通义千问App,进入“全民舞台”频道,就可来到EMO产品页面“全民唱演”。在歌曲、热梗、表情包中任选一款模板,上传肖像照片,EMO随即就能合成视频。首批上线了80多个EMO模板,包括热门歌曲《上春山》《野狼disco》等,网络热梗“钵钵鸡”“回手掏”等。目前通义App暂不开放用户自定义音频,用户只能选择App预置的音频来生成视频。

记者体验过后发现,最终生成的唱歌视频中,原本图片里的人物不仅能准确地对上歌词的口型,连面部表情和眼神也十分的自然。需要提醒的是,用户上传的照片需要确保已获得权利人的同意,除用于AIGC服务外,不得用于其他用途,避免对他人隐私及版权构成侵权。

据了解,EMO与“全民舞王”背后的模型Animate Anyone均出自通义实验室,2月底,阿里通义实验室的一篇论文让EMO火遍海内外,成为继SORA之后最受关注的AI模型之一,模型的产品化进程也广受关注。

EMO背后的肖像说话(Talking Head)技术是当前大热的AIGC领域。EMO之前的Talking Head技术都需针对人脸、人头或者身体部分做3D建模,通义实验室在业界率先提出了弱控制设计,无需建模就可驱动肖像开口说话,不仅降低视频生成成本,还大幅提升了视频生成质量。EMO学习并编码了人类表达情绪的能力,能将音频内容和人物的表情、嘴型匹配,还能把音频的语气特征和情绪色彩反映到人物微表情上。

如今,EMO通过通义千问App开放给所有用户免费使用,未来,EMO技术有望应用于数字人、数字教育、影视制作、虚拟陪伴、电商直播等场景。不仅如此,近期,通义App还陆续推出了超长文档解析、AI编码助手、AI会议助手等免费使用功能,通义大模型正在成为越来越多用户的超级AI助手。

本文来自网络。 授权转载请注明出处:http://www.dreamwu.com/blog/article/pid-23219.html

发表评论

(快捷键:Ctrl+Enter 或 Alt+Enter)
匿名评论时,请补充填写以下信息:
*以下联系方式请至少填写一种:

评论列表(0)

联系我们

联系我们

QQ:2686930

在线咨询: QQ交谈

邮箱: dwu365@126.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

手机访问
手机扫一扫打开网站

手机扫一扫打开网站

返回顶部