Vidu

Vidu AI 作为国内首个纯自研的 AI 视频生成模型,专注于将文字和图像转化为高质量的动态视频的同时,保持主体一致性。...

Vidu是专业的AI视频生成工具,依托于自研大模型的稳定性优势,让用户轻松创作高质量的视频内容,提升效率的同时,大幅降低了创作门槛。
· 参考生视频:首创主体一致性功能,轻松实现在连续不同场景中多角度、多主体、多元素的一致性视频生成
· 图生视频:让静态照片秒变灵动动态视频,让您的想法转化成栩栩如生的创意视频
· 文生视频:输入简单文本,即可让思维的火花变成灵动的视频
· 个性模板:海量精品模板,一键生成时下热门风格的创意视频,灵感落地快人一步
加入创作者社区,体验思维的碰撞,一起将脑海中的想法变为有趣的视频内容。

8 个评论

闪电查

刚上手就被惊艳到,门槛比较低,生成速度也较快。

注册之后,会有比较贴心的教程辅助使用,而且还会有新手任务。只要跟着任务去操作,就能把基础功能掌握好。同时在使用的过程中,还有各种模板参考。如果说有素材不会放,它也会引导你怎么去输入提示词,并和素材结合起来。

最重要的是,生成一个文转视频才消耗 12 个积分。做任务的过程会赠送接近 100 多积分,目前配合内测码使用,把任务做完之后大概有 600 多积分,基本上够做一部小短剧了。

更重要的是它生成的质量,素材在视频里展示时非常贴合。它可以用一个主体在不同的场景进行切换,让人物走进素材图片里面,形成一体感。

关于版本选择:

1. 使用 Vidu Q2 主要用于转成视频;

2. 使用 Q3 则支持声音同步,积分消耗也会相应多一点。

订阅套餐也不贵:

1. 标准版:连续订阅首月 50 元,下个月续费 59 元。每月 800 积分,能生成 200 个视频。

2. 专业版:186 元/月,每月 4000 多积分。

3. 旗舰版:629 元/月,每月 8000 积分,每日可提交 200 个视频。

4. 企业版:999 元,主要对接销售单进行交付。每个账号有 800 到 8000 积分,还提供一对一技术支持和员工培训服务。

看起来它的订阅模式已经很成熟了,重要的是这套工具持续迭代的能力,目前看质量都没有什么问题。希望越做越好,下次有朋友问有什么视频生成工具,我应该会推荐一下 Vidu。

降临派 2681

Vidu 主打 AI 视频生成,上手门槛相对低,新用户注册即可体验,生成流程清晰,适合快速尝试文生视频或基础视频创作。实际使用中,画面连贯性和整体观感在同类产品中表现尚可,作为入门级 AI 视频工具有一定吸引力。
不足之处是细节可控性有限,对镜头和人物一致性的掌控还有提升空间。

降临派 3742

创作者的长视频痛点被摆上台面→传统模型的底层缺陷被拆解→5 秒的行业桎梏被客观呈现→Vidu 的核心能力被解锁,Vidu Q2 参考生 Pro 的升级被全面展现→最终创作者被赋予长视频创作的确定性,全程无主动句式,均为被动受益视角,核心意思丝毫不差,字数与原文持平且细节更顺滑: 每一位尝试用 AI 制作多镜头长视频的创作者,都曾被 “主角动态换脸、扭曲变形” 的噩梦深深困扰 —— 前一帧的红裙少女,后一帧的身份特征便被彻底改变,这种主体崩坏的问题,被公认为 AI 长视频创作中最难以突破的瓶颈。 而这一困境的根源,早已被拆解清楚:传统视频生成模型的底层逻辑缺陷,让 “人、景、物” 三者被作为高度耦合的整体来学习和生成。当 “一个穿着红裙子的女孩在森林里奔跑” 的指令被下达时,“红裙女孩”“森林”“奔跑” 三个概念便被模型内部杂乱地纠缠在一起。一旦场景切换的指令被触发,从森林变为城市街道,角色的核心特征便无法被模型维持,不可避免的崩坏便会随之发生。 与此同时,视频生成长度的桎梏,也被所有主流 AIGC 平台共同面临 —— 普遍不超过 10 秒的生成上限,即便是 Vidu,目前也仅支持 5 秒视频片段的生成。但正是在这样的限制下,相对丝滑的长视频作品,却能被创作者基于 Vidu 拼接完成,尤其是 Vidu Q2 参考生 Pro 版本推出后,这份可能性更是被推向了顶峰。 作为从不标榜自己是 “全能王者” 的 AI 视频工具,Vidu 却凭借一项核心能力,让无数创作者为之倾心,而这项能力的潜力,也被 Vidu Q2 参考生 Pro 的迭代彻底释放,实现了从 “精准参考” 到 “万物可参考” 的质的飞跃。 简单的 “人物复刻” 范畴,早已被 Vidu 的主体参考功能超越,多参考能力的极致表现,也被 Vidu Q2 参考生 Pro 全面呈现:不仅主体形象能被精准锁定,参考图片或视频中的状态、动作、相对位置,甚至特效、表情、材质纹理,都能被一键迁移。更令人震撼的是,2 个视频 + 4 张图片的多模态混合输入被它支持,“六大维度全维度复刻” 的目标也被真正实现。 无论是二次元角色复刻真人舞蹈动作的需求,还是电影级特效无缝迁移的诉求,亦或是角色在不同场景下微表情保持一致的期待,都能被它轻松满足。创作者也终于告别了 “抽卡式创作” 的随机性,“牵一发而动全身” 的创作困境被彻底打破,生产级的创作确定性被真正赋予。而二次元角色复刻真人动作、电影级特效迁移、跨场景微表情统一这些创作需求,也都被 Vidu Q2 参考生 Pro 稳稳承接,让 AI 长视频创作的不可能,最终被转化为触手可及的现实。

降临派9579

图生视频功能,效果不满意,不能完全按照提示词完成动作

ai吃瓜

这个应用体验的比较早

人物主体一致性他家很早就开始做了,之前体验时整体体验还是不错的。首位帧效果也比较好,现在还可以多帧生成。

不过现在主流视频生成都可以 音画同出了,希望后续可以更新这个功能

休谟的叉子

动态上弱一些,但相对动作幅度小的,比如微表情和缓慢的动作,都比别家的要自然。看了一下也和模型本身选择的架构有关。
另外就是多参考非常惊艳,确实是把握住了影视制作人员的需求。总体而言在大厂的包围中做出了自己的特色,牛。

Sober阿铭

相对其它优秀的视频生成平台,Vidu可能没法说自己是最牛的。

但是Vidu有一个非常惊艳的功能,就是主体参考。它的多参功能指的不仅仅是主体,还有基于图片中的状态、动作、相对位置等,都可以形成参考。

目前主流AIGC平台的视频生成长度都不超过10秒钟,包括Vidu也是,暂时只支持生成5秒的视频片段。

但为什么,基于Vidu可以生成长视频,还相对丝滑。这就不得不提一个话题:长视频中的主体一致性。实际上,如果想用AI生成多个镜头的长视频,所有人都会遇到AI视频生成的最大瓶颈之一—— 主角形象在动态视频中频繁“换脸”或“变形”的问题。

Vidu Q1解决一致性问题的核心思想,可以归结为一个极具前瞻性的概念:“原子化创作”。这个理念的本质,是将一个复杂的、动态的视频场景,解构成最基本、最核心的、不可再分的“原子”单元。根据Vidu Q1的设定,这些原子被定义为“人、景、物”三大原色。

传统视频生成模型的问题在于,它试图将“人、景、物”这三者作为一个高度耦合的整体来学习和生成。当指令要求“一个穿着红裙子的女孩在森林里奔跑”时,模型内部的表征是将“红裙女孩”、“森林”和“奔跑”这三个概念混乱地纠缠在一起。因此,当需要将场景从“森林”变为“城市”时,模型很可能会因为这种纠缠而无法保持“红裙女孩”的身份特征,导致角色崩坏。

而Vidu Q1的“原子化”逻辑,则是先将这三者进行“解耦”。它通过“主体参照”功能,让用户先定义好那个不变的“人”原子。

第一步:定义“人”原子。 用户通过上传一张或多张角色的清晰图片,为模型提供一个明确的、高保真的身份参照。这相当于告诉模型:“记住这个人的样子,这是我们后续所有创作中绝对不能改变的核心。”

第二步:组合“景”与“物”。 在“人”原子被锁定的前提下,用户可以通过文本指令(Prompt)来自由地定义“景”和“物”。例如,你可以指令这个被锁定的角色“在赛博朋克都市的雨夜中行走”,或者“在海滩上快乐地跳跃”。

第三步:智能融合生成。 模型接收到这些被解耦的指令后,其任务不再是凭空想象一个全新的场景,而是将已经固定的“人”原子,与用户新定义的“景”和“物”原子进行智能地融合。它会计算角色在新的环境光照下的渲染、根据新的动作指令来驱动角色的骨骼和表情,但始终会参照第一步中定义的身份信息,确保其核心特征不发生偏移。

从基于单个主体的多视角生成参考图,到支持最多7个主体输入,最终构成了Vidu Q1的杀手级特性。

这意味着AI视频创作正式从“独角戏”时代迈向了“群像剧”时代。创作者可以为一部短片定义好主角、配角、甚至是一些关键的道具主体,并在同一个画面中让他们进行互动,同时保证每一个主体都维持自身的外观。这对于制作故事短片、广告、乃至动画剧集,都具有不可估量的价值。

瑞克辣娜

整体下来给我的体验感挺好的,具体表现在:

对卡通和二次元风格的掌控力很好,生成的画面风格统一,角色和场景组合不错。

色彩搭配不错,没有常见AI生成画面中容易出现的过度饱和或刺眼的问题,整体观感比较舒服,甚至没多少Ai生成的味道。

角色一致性与视频连续性惊艳:当使用一张已有的IP图片作为参考生成视频时,能够很好地保持角色的统一性(不像某些平台角色会“变脸”),并且视频帧之间的过渡流畅自然,动作连贯性做得相当不错。