把一段音频、一张照片输入AI模型,就能让图中人物开口唱歌说话,让奥黛丽赫本唱《上春山》、陶俑仕女说英文RAP、爱因斯坦说中文段子。不久前,这款名为EMO的模型因为阿里通义实验室的一篇论文火遍海内外,模型的产品化进程也广受关注。
司空见惯了用嘴唱歌、用手弹琴,但你见过用手“唱”歌的人吗?朔州市朔城区就有这样一位奇人,他叫要艺斌,艺名旦旦。“手歌”,不借助任何工具,单纯依靠两只手,同时借助口中的气流,有技巧地拍打分合,就能拍出一种旋律和节奏。
在最新人工智能(AI)技术的加持下,达芬奇名作中的蒙娜丽莎不只是淡淡微笑,还可以眉飞色舞地唱起RAP。近日,微软推出最新AI模型VASA-1,新技术的亮点是可将人的静态图像和语音音频片段生成逼真的视频。
来源:环球网 【环球网科技综合报道】把一段音频、一张照片输入AI模型,就能让图中人物开口唱歌说话,让奥黛丽赫本唱《上春山》、陶俑仕女说英文RAP、爱因斯坦说中文段子。不久前,这款名为EMO的模型因为阿里通义实验室的一篇论文火遍海内外,模型的产品化进程也广受关注。
AI距离改变世界又近了一步。—题记自从2022年底ChatGPT发布以来,AI技术的热度持续攀升,各行业都希望国内也能诞生突破性应用。这几天,一款叫EMO的AI图生视频模型,以其颠覆性的能力让人们对AI在内容创作领域的影响有了全新的认识。
澎湃新闻记者 胡含嫣又一个国产大模型应用火出圈!两个月前,阿里巴巴通义实验室公开了一篇能够让照片唱歌说话的生成式AI模型论文,EMO(Emote Portrait Alive),在海外媒体和社交平台引起热烈反响,被一批科技圈大V轮番转发。