
AI生图之王首发视频大模型,每月10刀,最长20秒,效果超逼真 2025-06-19 11:26:00

淮安一学校食堂供应商被曝生肉转运筐内有活蛆 公司回应:器具回收后没来得及清洗 2025-06-17 16:06:00

无需人脸识别即可完成实名认证 未成年人游戏交易如何监管? 2025-06-15 12:22:00

广东一对新人台风天办婚礼,新郎新娘撑伞入场!婚礼化妆师:宴席有100多人参加 2025-06-15 03:26:00

0次浏览 发布时间:2025-06-19 11:26:00
智东西6月19日报道,今日凌晨,AI图像生成顶流Midjourney发布其首款AI视频生成模型V1。
V1支持用户上传Midjourney生成的或外部图像进行视频生成,有手动、自动生成动作提示词两个选项,可设置镜头移动更快的高速运动和相对静止的低速运动。
从其生成效果来看,V1可以保证在画面背景变化的同时,主人公动作行为依旧连贯且流畅,即使凭空创造的怪物、科幻形象运动也流畅自然。
用户在Midjourney图像生成界面选项点击“Animate Image”就可以体验,最长可生成20秒视频。
目前,Midjourney的所有订阅者都可以体验V1,其会员起订费为10美元(折合人民币约71.9元)/月,用户每次生成视频需从每月预设的信用额度中扣除点数,类似“按次消耗额度”的机制。Midjourney正在测试为每月60美元订阅费的会员开放“无限制轻松模式”。
Perplexity AI设计师Phi Hoang在X上评价:它超出了我所有的预期。
Phi Hoang在X上评价
V1的发布也意味着Midjourney开启了从图像生成走向全多媒体内容创作的重大转变。不过,相比于视频生成赛道的老玩家,V1的功能并不完善,其目前只能生成视频,无法生成对应音频,配乐需要用户在后期制作中使用单独的工具手动添加,并且其视频尚不支持编辑时间线、场景转换或片段之间的连续性。
体验地址:
https://www.midjourney.com/explore?tab=top_month
V1刚发,网友们的创作热情就被点燃,在社交平台上传了不少自己的生成效果。总结来看,V1的特点包括可生成长时间的流畅动作,支持竖屏、横屏等不同画幅,且网友普遍反馈生成速度很快。
A double exposure portrait of a majestic lion's side profile, set against a backdrop of trees and a sunset sky. The image has a black background, with a photorealistic, hyperrealistic, and cinematic lighting style, created using Octane Render.
这张雄狮侧面的双重曝光肖像照,背景是树木和落日的天空。图像背景为黑色,采用照片级、超现实主义和电影级的灯光风格,使用Octane Render渲染。
雄狮和树木、落日的双重曝光效果逼真,但提示词中的“电影级灯光效果”并没有在雄狮移动时表现出来。
下面视频共17秒,视频中主人公从站在楼顶、一跃而下、反转身体到在空中飞翔,整个画面一气呵成,没有出现扭曲的地方。
有网友火速比较了V1和Runway的视频生成效果。
同一提示词下,V1生成视频周围的蝴蝶完全静止,Runway捕捉到了整体画面,较为和谐。
另一组对比下,Runway中湖面水的表现效果更好,V1中人物动作更流畅;后面的动画效果V1更具大片感,Runway的效果像制作不够精良的游戏页面。
有网友利用V1对旧照片进行了动画处理,他的评价是视觉效果惊人,运动自然,但相比Veo 3效果较差。
用户可以在Midjourney生成新图像,然后点击“Animate(动画)”按钮,就能让图像动起来。
其具体的设置包括,用户可以通过“自动”动画设置帮助生成“动作提示”,“手动”按钮支持用户自己向系统描述希望如何让图像变化的需求。
在创意角度,V1有高速运动、低速运动两个选项。低速运动更适合环境场景,即相机基本静止,拍摄对象缓慢移动,例如人物眨眼或微风吹拂的场景,缺点是有时被拍到的东西也是静止的。
高速运动适合那些希望拍摄对象、相机等所有物体都动起来的场景。缺点是,所有这些运动有时会发生奇怪的错误。
用户可以选择延长自己觉得较为满意的视频,每次大约延长4秒,总共可延展4次,也就是能生成20秒的视频。
Midjourney允许用户上传外部图像,将图像拖到提示栏并将其标记为“起始帧”,然后输入动作提示来描述希望它如何移动。
正式上线时,Midjourney将仅提供V1的网页版,其博客提到,视频制作的收费大约是图片制作的8倍,每个视频任务将支持生成4个5秒的视频,由于每个视频任务生成20秒的内容,因此每秒的成本大致相当于生成一张静态图像。
此外,Midjourney还将为“专业版”及更高级别的订阅用户测试视频“轻松模式”。
此次V1的发布,Midjourney将其视为探索构建能够实时模拟开放世界模型的第一步。
他们的目标简单来说,就是有一个能够实时生成图像的AI系统,用户可以命令该系统在3D空间中移动,环境和角色也会随之移动,用户还可以与所有物体互动。
基于此,图像模型负责视觉效果,视频模型负责让图像动起来,3D模型让角色在空间中移动,最后还需要实时模型快速完整这些过程。
因此,明年,Midjourney将分别构建并发布这些模型,然后慢慢将这些模型整合成统一系统。
视频生成模型的竞争大幕已经拉开。5月谷歌发布Veo 3实现音画同步,6月字节跳动推出豆包视频生成模型Seedance 1.0 pro,昨天MiniMax更新海螺02打破全球视频模型效果成本纪录,今日Midjourney首款视频模型亮相。
此前,Midjourney的产品一直强调可访问性和易用性,但现在它正朝着更复杂的模拟框架迈进,他们也将V1描述为迈向更复杂系统的“技术垫脚石”。
在宏大目标背后,Midjourney目前还面临着来自迪士尼和环球影业全球两大娱乐工作室的严峻法律挑战,他们指控Midjourney未经授权使用受版权保护的角色来训练其模型,并继续允许用户生成衍生内容,这也为其未来的发展蒙上了一层不确定性。
本文来自微信公众号“智东西”(ID:zhidxcom),作者:程茜,编辑:心缘,36氪经授权发布。