潮新闻客户端 记者 张云山把一段音频、一张照片输入AI模型,就能让图中人物开口唱歌说话,让奥黛丽赫本唱《上春山》、陶俑仕女说英文RAP、爱因斯坦说中文段子。不久前,这款名为EMO的模型因为阿里通义实验室的一篇论文火遍海内外,模型的产品化进程也广受关注。
钛媒体注:本文来源于微信公众号新浪科技(ID:techsina),作者 | 杨雪梅,编辑 | 韩大鹏,钛媒体经授权发布。“蚂蚁呀嘿,蚂蚁呀呼,蚂蚁呀哈……”相信过去一周,你一定看到过不少这个BGM的魔性变脸视频。通过相关模块,只需要一张照片就可以自动生成诙谐好玩的动态唱歌视频。
机器之心原创作者:张倩从论文到手机,这个团队正在「一键实现」越来越多的好玩特效。这几年,AI 模型在特效方向的技能似乎已被拉满。因此,我们在有生之年见到了会说话的蒙娜丽莎、cos 油画的周杰伦以及可以让人一秒变秃的「东升发型生成器」。
极目新闻记者 周丹只需要一段音频、一张照片,就能让人物开口唱歌说话?是真的!让奥黛丽赫本唱《上春山》、陶俑仕女说英文RAP、爱因斯坦说中文段子……都能成为现实!不久前,这款名为EMO的模型因为阿里通义实验室的一篇论文火遍海内外,模型的产品化进程也广受关注。
来源:【海报新闻】海报新闻记者 孙杰 济南报道把一段音频、一张照片输入AI模型,就能让图中人物开口唱歌说话,让奥黛丽赫本唱《上春山》、陶俑仕女说英文RAP、爱因斯坦说中文段子。不久前,这款名为EMO的模型因为阿里通义实验室的一篇论文火遍海内外,模型的产品化进程也广受关注。
把一段音频、一张照片输入AI模型,就能让图中人物开口唱歌说话,让奥黛丽赫本唱《上春山》、陶俑仕女说英文RAP、爱因斯坦说中文段子。不久前,这款名为EMO的模型因为阿里通义实验室的一篇论文火遍海内外,模型的产品化进程也广受关注。
来源:环球网 【环球网科技综合报道】把一段音频、一张照片输入AI模型,就能让图中人物开口唱歌说话,让奥黛丽赫本唱《上春山》、陶俑仕女说英文RAP、爱因斯坦说中文段子。不久前,这款名为EMO的模型因为阿里通义实验室的一篇论文火遍海内外,模型的产品化进程也广受关注。
这里所有文章均来自微信公众号“火星AIGC”想要看到更多更新的AI前沿信息、AI资讯和AI工具实操,请关注微信公众号“火星AIGC”。腾讯“知己”游戏工作室前不久开源的 AniPortrait 项目,能让照片对准嘴型说话唱歌,正是对标阿里的 EMO 项目。
Hedra,只要上传照片和语言即可自动实现人物说话和唱歌等,当然也可以全用AI生成人物和语言。我们打开Hedra官网,可以用谷歌账号授权登录。点击Try beta进入操作界面,我们先上传照片和语音,看看生成的效果如何?
抖音蚂蚁呀嘿动图很多小伙伴最近都看到了,感觉非常的有趣。那么这种效果的动图是怎么制作出来的呢?其实很简单,下面小编就为大家带来了蚂蚁呀嘿gif动图的制作教程,有需要的小伙伴快一起来看看吧!抖音蚂蚁呀嘿动图怎么做?