OiiOii

AI 动画创作 Agent。...

【产品介绍】

OiiOii 是全球首个专注于动画创作的 AI Agent,致力于帮助用户实现动画创作梦想。

【核心功能】

多角色 AI 团队:包含艺术总监、场景设计师、编剧、产品设计师、角色设计师、分镜师、音乐总监等 7 个专业 AI 角色

多样化创作:支持图片生成、视频制作、动画短片、MV、衍生品设计等

161 种风格:提供丰富的视觉风格选择

双模式创作:托管模式一键直出,对话模式精细调整

图生视频:支持上传图片并通过描述生成动画内容

【适用场景】

适合有动画需求的内容创作者,包括短 MV、故事短片、音乐概念片、漫画转视频等创作需求。

41 个评论

oil 欧呦

首页很有趣很吸引人,我选择了一个吉普力的视频风格来创作一个治愈的恋爱故事,使用的是托管模式。

第一步:艺术总监跟我讨论影片类型和创作方向,影片的时长,画面比例和剧情氛围。

第二步:编剧基于艺术总监定的基调开始写剧本

第三步:编剧邀请角色设计师来根据剧本设计故事中的角色形象,男主有点像《哈尔的移动城堡》的男主(图四),女主有点像《幽灵公主》的女主(图五),这一步是通过 AI 生图实现的,为后面的 AI 生成视频提供参考。

第四步:完成角色设计后,会邀请分镜师进群,开始为视频设计具体的分镜,每一个分镜有对应的视频提示词,音频提示词以及人物的具体台词,生成的背景音乐可以直接听,我觉得确实很治愈很舒缓。

最后一步会调用 sora2 生成不同的视频片段然后将视频片段拼接到一起,形成一个完整的视频,上述的过程除了可以查看对话框中的对话信息,右侧还有一个具体的视频生成工作流可以查看各个过程中具体的提示词细节。oiioii 将不同的 Agent 拟人化为不同的角色,然后以群聊的形式展开视频的创作,我们提供最基础的选题,然后不断的在群聊拉不同的人进群讨论,最终实现一个作品,这个产品思路我觉得很棒,也很有意思。

但是最终生成的视频效果其实一般般,一是整体分镜切分的太碎了,观感不太好,有点像预告片了。其次是人物的一致性没有做好,男女主的形象除了在前面几个镜头里是按照角色设计图来生成的,后续的全部镜头感觉男女主的形象一直变来变去。

后面我还尝试用了快速生成视频模式做了一个琦玉大战杰诺斯的短视频,在生成提示词的时候会提示避免版权风险不会直接在提示词中使用具体的角色名,但是最终生成的视频里还真的就是琦玉和杰诺斯本人,打斗的场景和 bgm 也都蛮有冲击力,已经超越了一拳超人第三季的制作水准?。

最终冲着产品很棒的创意和完成度给一个好评!

闹闹-OiiOii-小学校长

大家好,今天开启第二轮内测,更新优化了一轮反馈的问题,也希望更多人有邀请码可以参与;
可以关注下 OiiOii AI 公众号,里面可以领取了

闹闹-OiiOii-小学校长

大家好,我是 OiiOii 的创始人闹闹,非常感谢大家对 OiiOii的关注和热情,看挺多降临派非常认真详细地给出了很多中肯的建议,非常开心。

这几天真是又惊喜、又忐忑、又感动,我们真的没想到,在首轮内测时,就能有这么多人支持和喜欢OiiOii,也没想到,有这么多小伙伴都想做出自己的动画。

我们深知,我们还远没有那么好用,好多bug,很多错误,团队确实花心思做了许多专业的新玩法进去,会有些惊喜感,但上周我们其实还在讨论100个种子用户怎么去邀请。

所以当惊喜发生时,就伴随着很多问题,比如邀请码不够,人手短缺,反馈和优化不够及时,很多行业内的朋友希望帮我们宣传却被拒绝……我们深知自己还有很多问题,所以这个阶段还是更想把大家反馈的致命问题好好优化下。 不是不发邀请码,也不是饥饿营销,是真的还太菜,orz。

我也简单介绍下项目和团队吧:


我们是谁?】

我们是一支今年7月刚刚组建的团队,8月公司刚成立,(开发周期大概 2 个半月,这也是为什么很多不足的原因)
一间15平米的房间就足以容纳所有人。我们有前-字节、快手、微信、B站、米哈游、AI六小龙的「宗门天骄」,也有无业、在校、自由职业、隐世不出的「散修」;有北大、清华、北邮的「学霸」,也有非985、211的本科「普通人」,唯一的共同点应该就是对「动画」足够热爱(以及想创业暴富的期待)

【OiiOii是谁?】

OiiOii是一个经历两个多月孵化,刚刚从数码蛋中破壳而出的幼年期智能体,是全球首个专注于动画创作的Agent。

【为什么叫OiiOii?】

本意是想用Oi的发音,来和用户亲切的打个招呼,交个朋友。但由于团队中有很多中二病,所以总是幻想着,我们可以秉承着蜉蝣之志,做到蚍蜉撼树,书写出一个大卫与歌利亚的故事,而OiiOii看起来特别像一只努力爬行的小蜗牛,所以就有点自我感动,同时OiiOii看起来又有一点像颜文字,非常可爱,所以就用了这个名字。

【为什么要做OiiOii?】

因为热爱和遗憾。想帮助像我们一样,有动画梦,但因为这样那样原因,无法实现的人弥补遗憾(也想帮热爱这个行业的人都挣点钱)。而现在,我们笃定,AI的发展能实现这一目标,所以我们做出了OiiOii。

再次感谢大家的喜爱、中肯的建议,和包容。我们也会努力迭代,满足大家都需求,不辜负大家都喜爱,谢谢。
往后更加开放,也希望大家再来评测。

wy

从图片生成来说,生成的效果相对不错,一些偏技术的流程图,可以直接生成,但存在几个需要优化的点:

1、对于多任务的执行支持相对不太好,比如让生成多个应用的流程图,但也只能一步步生成

2、很多时候生成的内容是英文的,这个应该和调用的模型关系比较大

从视频生成来说,可以调用sora2或者vidu或者万相模型,生成视频,但也存在几个问题:

1、对于时间的理解有点问题,提的是明年,结果理解是24年

2、生成的视频有一些物理视觉的偏差,不过这个应该是模型本身的问题

GoodTime

先给个整体评价,视频工作流很不错,做的视频效果也可以,下面展开来说说

说到这个名字 oiioiil ,很有记忆点,朗朗上口

① 经常上网冲浪的小朋友应该听过类似的 B 站小八版本的 oi! 美桑内内~

② 还有陶吉吉的找自己 o a a ye~ duang duang duang

就像主页介绍一样,oiioii 是专业的 AI 动画代理团队,包含艺术总监、场景设计、编剧、产品设计师、角色设计师、分镜师、音乐总监等团队角色,只需要对话就能生成自己的创意视频,相信大家都在热情的体验,那我就说一下体验上欠佳的点:

1、关于角色创建

选择创建角色、角色创建完成后只是有个角色设计师的提示 “请继续后续的工作流”,但是主页角色栏里并没有对应的角色信息

2、流程切换

可以在角色设计时切换到 “故事短片创作主流程” 但是需要提醒两次才切换成功

3、风格库显示

风格库选择最好鼠标放上面可以简短放一下这个风格的几秒视频,缩略图并不能特别明显的区分很多风格

4、风格库自定义

不能自定义风格,给出的风格还是只会从提供的 162 种风格中选择

5、关于单独分镜

1)建议增加选中一个分镜单独分镜的功能,现在是点击编辑分镜全部分镜都呈现出来了

2)同时、我发现每个分镜鼠标放上去呈现的编辑分镜打开也是所有分镜都呈现出来了

3)分镜旁边的加号加一些文字说明,开始以为是选中直到添加到对话里才明白是新增一个分镜

6、过程链接

回答过程中提供的链接无法点击

7、中文支持

台词、字幕、文字特效中文支持很不友好,尤其是笔画多一些复杂一些的字很糟糕

不过还要给这支精英聚集的新团队、短短 2 个半月做出来的新创意点赞,AI 时代不缺创意,缺少创意能产生价值、效益到落地

附:给降临派做的故事小短片(字幕忽略,侵权联系删除)

localhost

我本来想等到使用oiioii做完第一个完整故事再来评论的,但是我低估了创作的复杂度,sora2审核的复杂度,也高估了工作流的智能程度,所以短片至今未能做完。

我是个稍微懂点技术又比较挑剔的人,但是使用这个agent的确是让我惊艳到了,作为一个“全球首个”产品,它能有这么高的完成度是我没想到的。尽管有一些还可以优化的点,整理而言我觉得整个agent的设计和结构已经相当好了。


我的习惯是先讲优点。

  1. 使用选择代替文本(图1),减少认知负担。less is more的哲学在这里可以得到一点体现。很多agent是默认要用户的高认知负荷地参与的,比如某些deep research工具向你确认研究方案时抛出来的抽象问题。 从第一个点开始降低使用门槛,非常好。

  2. 通过群聊式的多agent共享session,而非主agent调度各种工具,来实现功能的分化和上下文的管理和统一,通过用户选项来固定全局变量。虽然这是很早就被宣传和设计出来的架构,但这一点在当前主流的agent中落地的并不多(或许架构已经定好的历史包袱很重),我觉得这是某种后发优势。

  3. 已经具备比较好的工作流设计。从角色定位上有艺术总监(主agent),编剧,分镜师、角色设计师,短片风格助理等 角色,各自专精一个活,来从功能上cover住理论上的整个短片创建的工作流,不会太多,也不会太少。

  4. 通过画布的xyflow的形式来串起用户对于短片创作的视觉感知,左侧的对话框自动托管,右侧的canvas低代码,我再一次为这个less is more的设计感叹。国内互联网不知道多少产品经理把产品做得像屎一样折磨用户,只会做加法不会做减法。感觉这产品设计真是有水平。(图2)

  5. 调用sora2/midjounery/nano banana之类的相对比较前沿而且普通用户在正常的环境下不可能调用得到的模型,并且利用它们各自的优势,还要研究怎么修改提示词。不仅要对前沿有了解,还要熟悉风格,还要研究prompt engineering,这是不小的工作量的。(图2)

  6. 它甚至还可以多个工作空间同时跑多个任务

当然优点说完了(其实还没说完,因为最近比较忙没探索太多),这篇评价还是有点不够全面。

我需要谈一些使用过程中的槽点,或者待改进项。

  1. 首先全局变量的选择:对白语言这个选项有时候不弹,导致生成了七八个分镜的时候发现是中文的。(见图1)。如果我可以知道有哪些全局变量我能提前设置好的话,会降低试错或者后悔的概率。

  2. 从我长期使用纯文本LLM的直觉来看,我觉得作为整个session维护者的文本模型表现得不是很好,比如会出现大量的重复内容(见图3,整个session中“下一步你只需要总结而不需要再次输出代码块”出现了66次;或者图4,agent自己批评自己然后给我道歉),看起来可能是提示词的问题或者是过高的复杂性难以处理。考虑到视频模型的成本非常大,我建议在文本模型上上一点预算,选择好一些的文本模型,这样性价比会更高,比如文本创作选择 kimi-k2-thinking或者即将发布的gemini3 或者deepseek-v3.2;指令生成用glm4.6或qwen3-480b-coder 都行。然后在prompt设计的时候,用各类sota模型让它们评估一下系统指令有没有歧义。

  3. 托管模式下角色设计完没有review就开始生成视频了(图5 ,jerry画得和morty一样)。我觉得这是一个不好的点,错误应该在尽早发现,而不是等到视频都生成完了才意识到出了问题。我的建议是,反正用户是做选择,那就让他多做几个,确认一下也还可以。当然,可以用多模态模型来review一下。

  4. 时间分片的连续性问题,编剧和主agent对分镜数量和视频时间估计的相当不精准。我注意到短片模式下,基本上都是7-10个分镜,实际上sora最长也就15s一个(虽然支持30s但是在这里没有看到过,甚至很多都只是8s)用户或者创作者很容易不知道他们想要的那个短片具体要多久,一旦给了过长或过短的故事,要么过于零散,要么过于稠密,导致最终的结果就是我看到了好些个零散片段,但是实际上无法拼凑成一个故事。换句话说,这对用户提出了很高的要求:我要知道怎么创作那个恰到好处长度的故事又恰到好处地可以衔接起来。我的建议是先估计一下用户想讲的这个故事大概是要多久,需要多少个镜头。

  5. 故事连续性问题,编剧非常简单地把故事粗暴地拆分成了等长的剧情,但是完全忽略了特写、效果等因素,意味着这些都需要用户自己后期慢慢去磨和调整。自动最终变成了手动。我的建议是优化prompt,或者提前评估故事的复杂性和合理性。

  6. 视频产出风格的稳定性问题:图7, 镜头4 产生了竖屏。图8, 各个分镜差异迥异(色调、画风、方向之类的)。我的建议是先生成一张或几张不同时间点的基准图,作为全局风格来对齐。

  7. 最后,我注意到让它自己评估视频的时候,它只能通过图片多模态来看,而不是视频多模态(而且评估结果也有点好笑,说注意到有的视频音频不完整)。我记得qwen也有一些开源的视频多模态模型,完全可以拿来评估一下剧情是否被实现。视频生成质量和内容是否符合预期,来让整个流程更加完整。


整体就是这些吧,我觉得我的这个评价也对得起开销这么大的工具给我免费体验了,当然,这个工具也值得我用心去评价。

降临派2486

做视频感觉分工很细很专业,挺严谨的,风格选择也多,其他模型显得有点模棱两可。我觉得Oii就是平常给它一些场景,然后它通过我们说的表面意思去自由发挥做出来的就很好,但是一旦写提示词的人想象到的比较细节或者已经把灵魂想象的很到位了,那它就实现不了了

齐霖

这次我们换个直观的感受。

我给的评价是:锤爆KO!好的东西不要去思考,不要去理解,去感受!

这次,只放图,请大家,看图说话~

月亮姐姐

今天第一次用,额可以说是喜忧参半,人物和场景风格赞,视频效果好,但是也有一些状况,比如人物角色提供了附图,识别仍然不对,同一个剧情下,人物形象竟然有中国古人和外国人,真的不搭。生成了几次人物IP图,才达到都是中国古人的效果。也许是提示词的问题?还有就是,今天使用比较慢,生成视频并没有采用参考IP的形象,等改视频,要等很久,也许是算力不够?

不过,总的来说,oii有好几个优点,1、邀请码裂变,很厉害,效果很好。2、IP人物形象生视频之后,视频效果确实很好,比如人物表情,语音跟随,配乐,整体还是相当好的。

jody

体验非常棒,我不是设计师,甚至连我想要什么效果,我都有点说不清楚。但是我说了一些需求,我发现他能比较精准的把我脑子里面想的东西改出来了。

首先我是希望有一个比较高大上的淘宝详情页的。然后我给他发了两个商品图片,以及一个原有的淘宝详情链接。。由于改图太累了,我实在是改到一半就先来评价了。最后能不能生成整个详情页的所有图片,我还不确定。

首先是刚开始的时候,他邀请了设计总监啦什么进来,这个很有趣。

其次我说的具体设计效果的需求,其实是很模糊的,我说了一个人群,比如说是宠物人群,年龄可能相对年轻,或者是到中年,我只描述了他们这个人群可能喜欢的色系以及场景。然后它生成了第1张主图。

首先我对主图的构图和设计还是很满意的,所有的原商品产品图片上的文字都没有丢失。生成的效果图,整个的构图也看着非常舒适。

其次,比较细节的部分是,我修改了这个主图上半部分和下半部分的背景配色。花了几次说,但是最终它是呈现出来我的需求了的,我觉得这是沟通到位的,而且我说的这个语言,我自己回看的话,感觉即使是我跟真人设计师对话,也不一定能让设计师能理解我说的需求(就是说我在设计上的表达是很模糊的)。所以这一点上我感觉还是很满意的。

但是真正能设计出实用能用的效果,可能需要反复的琢磨和对话,但已经比其他我用过的一些ai生图效果好很多了。