11月15日,字节跳动视频生成模型 PixelDance和Seaweed在即梦AI正式上线,面向公众免费开放使用。用户进入即梦AI的“视频生成”界面,在视频模型里选择“视频P2.0 Pro”或“视频S2.0 Pro”,即可分别体验这两款模型,目前网页版和手机端APP均已支持。
剪映前段时间一直在内测的AI做视频工具现在已经全面开放使用了,只需要用自己的抖音账号扫码就可以直接使用。支持文生视频和图生视频两种模式。·其中图生视频有一个非常牛的功能,就是可以上传首尾两张照片,它就会自动生成中间的过渡视频,这样做出来的视频可控性就会更强。
近期,即梦AI在官方社交媒体上发布了一条新功能上线预告片。视频显示,采用了全新的多模态视频生成模型OmniHuman,用户仅需输入一张图片和一段音频,就可以生成一条生动的AI视频,有望大幅提升AI短片的制作效率和质量。
我是有匪君,点击右上方“关注”,一起AI学习、搞钱……让成长不再孤单这段时间使用AI,主要是用绘图功能,视频功能很少用。原因有二:一是因为生成的视频时间很短,MJ和AI小聚都只有4s,即梦最长的12s,时间太短感觉没什么意思;二是生成的视频一言难尽。
【编者按】2023年“百模大战”爆发,2024年大模型应用浪潮来袭。从ChatGPT、文心一言等产品的横空出世,到多模态AIGC、垂直行业模型的百花齐放,过去一年,AI大模型正加速从象牙塔走向落地应用。
作者/ IT时报记者 沈毅斌编辑/ 潘少颖 孙妍“AI生成不仅可以降低影片制作、场景搭建、妆造设计等成本和时间,也降低了入局门槛,一个人就可能拍完一部剧。”上海大学温哥华电影学院副院长陈晓达曾向《IT时报》记者讲述视频生成大模型对影视行业的影响。