跳转到内容

晨然:万字复盘我的AI作品《Devices》| 解析AI创作中的变与不变

🎇

嗨,大家好,我是喜欢AI创作的晨然。

原文:https://mp.weixin.qq.com/s/tkcvmtybmj2xHkIaeIQypw

飞书地址:万字复盘我的AI作品《Devices》| 解析AI创作中的变与不变🪄

文章底部有联系方式,欢迎链接

我的AI视频《Devices》VisonOS 开发者大会 中展示啦!

这是我第一次有机会在这么多人面前展示AI创作作品。

本篇将毫无保留的分享 Devices 的完整创作思路,我会从创作灵感、工作流解析、AI可控与不可控的经验思考三个方面完整复盘!

我也免费开源我的工作流,回馈引我入门的开源社区,你可以在下面链接下载我的工作流。

[Devices in MultiVerse] Prompt Travel WITHOUT AnimateDiff

《Devices》中我想探索的,就是AI原生内容生产具备的要素:

如何平衡可控性与不可控性?

如何做出AI“原生”视频?

如何结合传统视频工作流与AI工作流?

Devices 视频截图

感谢海辛阿文收录我的AI视频作为案例

还没有看过的朋友可以看看👇

声明:文章为原创内容,未经允许禁止以任何形式转载。

✨写在前面

本篇适合任何对AI创作感兴趣的人,我写的会比较通俗易懂,小白可以看懂。

专业人士也可以获取一些创作思路灵感~

《Devices》中呈现了色彩缤纷的电子设备的变换,每一帧视频截图都美极了。

可控与不可控的权衡

简单来说,工作流用一句话总结:

使用Blender制作白模动画,导出深度图、线框图帧序列,使用ComfyUI进行风格迥异的渲染。

我一直在思考一个问题:

AI视频到底跟传统工作流制作视频的区别是什么?

其实两者各有优缺点,并不是替代关系。

  • AI内容速度碾压,接近零成本无限生成。
  • AI极其不可控,很难可控构图、一致人物。
  • AI画面粗糙,经不起细看。
  • 传统工作流(动画、电影)慢,极其可控,在制作之前即可预测内容。
  • 传统工作流成本高,需要规范流程由小到大制作。

AI与传统工作流各有优劣,我觉得思考如何使用AI替代传统艺术工业,不如思考AI如何迸发新时代艺术创作流程。

让AI做好AI擅长的内容,传统工作流做好传统工作流擅长的内容,两者结合,不谈替代。

我想,我这不是拍过微电影又会AI嘛,为啥不结合一下呢?于是,就尝试了一下利用Blender的可控性和ComfyUI的随机性制作AI原生内容。

传统工作流是在可控性中寻找创新的随机性,而AI工作流更多是在随机性中寻找可控性,那么最重要的问题变成了:如何平衡可控性与不可控性?

这个思考会贯穿整个创作流程。

ComfyUI节点编排工作流

我参考的教程

参考的YouTube教程:

这位YouTuber不仅分享了整个创作教程,还开源了他的ComfyUI工作流源文件,值得学习。

Latent Vision的思路和教程都很高质量!

参考的ComfyUI工作流:

该工作流其实是用于稳定动画生成的,有很多AnimateDiff的部分。

Prompt Travel的神!

🎶创作灵感

不要跟原有事物比较

我看过很多技术派大神,将传统的blender白模导出,使用ComfyUI工作流渲染,制作思路是使用blender等建模软件进行骨骼绑定、制作运镜和动画,导出白模等信息让AI“填色”转绘。

可以说转绘是最稳定的工业使用AI的工作流。

可是他们大多都是希望制作“原来就存在的动画”,

制作这个世界原本就存在的东西,会有一个问题:

观众会不自觉的将它与原有事物进行比较。

我们会有一套已有的评判标准:看习惯了日本动漫,经历了动漫内容制作越来越精良的变革(自从看了紫罗兰永恒花园我就很难再看以前的动漫),再看AI绘画会在想,这手怎么这样,这眼睛怎么这样,这没有灵魂等等。

但是我不想让观众产生比较的感觉,这应该是一个没有的审美才行。

AI应该制作AI才能制作的内容,这样观众才不会去第一直觉去比较它。

发挥AI优势

某个周末看到了OpenInterpreter发布新时代AI开源操作系统中,非常酷炫的在一个推镜头长镜头后,使用了变幻莫测、色块清晰、风格鲜艳的手绘动画,展现了人类历史中手持设备的变革历史,最终变成了手中拿的新时代硬件设备。

通过鲜亮的颜色变换和蒙太奇剪辑,在设备旋转过程中进行匹配跳剪,自然变幻成下一代设备,围绕OpenInterpreter的使用场景和功能进行描述。

瞬息全宇宙穿越平行宇宙片段

蜘蛛侠多重宇宙片段

风格很像《蜘蛛侠多重宇宙》和《瞬息全宇宙》的平行宇宙穿梭的时刻,特点在于:

  • 颜色鲜艳变幻,多用饱和度和不同色相
  • 风格迥异,手绘平面风格中使用不同剪纸制造“平行时空”感

变化的是风格,不变的是视觉焦点的主体。

多重宇宙的风格并不是最近几年才兴起的,只是电影工业生产力提升,可以更低成本制作多重画面。

这种风格需要每一帧时间戳制作完全不同的画面,所以人工成本巨高,效益还不高。

但这不正是AI最擅长的吗?

AI可以短时间生成大量图像,但都经不起仔细观赏,怎样利用好AI的“量”属性呢?

这就需要将AI无限生成的特性发挥到极致,不要让AI做稳定可控的多帧连续渲染,让它多变风格,发挥想象力和算力优势。

🎊工作流详解

转绘是AI可控的最佳实践。

这个思路可以先看看YouTube大神使用Blender渲染白模,再用Blender中原生提取的线框和深度信息,在ComfyUI中进行动画的转绘。

其实转绘也不一定需要用Blender,用一张图动一下、一个视频,已经有很多工具可以完成线框提取呀、深度图提取啥的。这个可以去看看海辛和阿文老师一直以来的分享,给了我很多的灵感。

Blender建模的优势是:

  • 所有的运动更加可控,直接关键帧设置好物体和相机运动轨迹
  • 想要什么模型就给什么模型,社区里免费模型都很多!
  • 原生深度图和线框图!!!

第三点是最重要的,因为Blender本来可以渲染的时候导出稳定的线框图和深度图等,不需要再在二次的利用其他模型提取一遍,二次提取很容易出现深度图闪烁问题。质量不高的Control信息当然也会体现在最终的渲染结果中。

剪辑思路采用text-based蒙太奇,即0-2s是旋转的Iphone,2s-4s是旋转的诺基亚……以此类推。这个对于剪辑的要求就不是很高。做的酷炫一点,可以参照OpenInterpreter的匹配剪辑思路,在旋转的侧面时进行跳帧,以相似物体形状进行转场。

所以,Blender动画制作 + ComfyUI转绘 + 蒙太奇剪辑 就是工作流核心。

Blender动画制作

我不太会用Blender。几年前用过一段时间,但快捷键全忘了…所以还花了很多时间YouTube搜索教程哈哈哈。

建模用什么?

不需要建模!直接网上搜搜免费的模型就好了,我直接在网站中搜索的手机模型,有什么Devices就用什么!

我的模型在TurboSquid找的,点FREE筛选。

动画怎么做?

在第0帧设置一个xyz位置和xyz的旋转,在70帧设置一个变幻后的坐标和旋转,它就会自动加上动效了。而默认的Blender动画是会加上平滑曲线的动画,在开头和结束,会有一个加速启动和减速结束的效果。

这个效果并不适合蒙太奇剪辑。加速和减速,会减损最终剪辑在一起旋转的势能。

我想要匀速的效果,所以把动画改成了线形变换。

Blender中可以简单配置一下节点输出,在渲染的时候同时导出线框和深度图,之后我们就用这个图片序列即可。

帧数用什么?

动画中最终重要的参数是帧数。我观察到OpenInterpreter的帧数是30帧每秒,而每一帧静帧大约是2-4帧。意思是大约8帧每秒的画面。

为了利用视觉暂存的效果,我在ComfyUI中的最终视频合成就使用8帧每秒。

方便做实验,Blender的视频帧可以按照高帧率输出(例如30帧),一共渲染70帧的片段,基本就够了。

在ComfyUI中,选择跳帧选择原始图像序列中的图片,就可以完成帧跳跃的样子。

当然这些参数,都可以根据你的运动幅度去调整。

最好就是Blender导出足量帧信息,ComfyUI再做帧数的实验。

需要什么信息?

白模渲染(后来发现没用上)、线框、深度图。

ComfyUI转绘

其实ComfyUI的节点工作,就是低代码编排。如果按照模块化的设计,完全可以把它归为一个一个封装好的模块化函数,有自己的输入输出,有自己的单一职责。

我的工作流是基于大神的思路魔改的(加上理线,我真的很喜欢理线!),所以也免费开源给大家!

[Devices in MultiVerse] Prompt Travel WITHOUT AnimateDiff

ComfyUI由于节点看起来很复杂,很容易劝退小白(我在使用之前就被劝退了),后来发现,对于一个标准的转绘工作流,其实只需要看清楚上面四个模块内容就可以了。

其中最重要的就是构思好自己的控制方式,用更改模型model或者更改提示词prompt

控制的思路有两种:

  • 模型Prompt
    • 基础模型 + 风格化Lora模型
    • IpAdapter
    • AnimateDiff
  • 提示词Prompt
    • ControlNet模块利用图像的本来的线框、深度等信息
    • 文字提示词(正向、反向、Prompt Travel)
    • Latent Image

如果按照这两个思路,其实看任何视频转绘工作流都超超超清晰了。

模型控制的是风格

  • Base Model有不同的模型家族,例如sd1.0和sd1.5生态就不一致。一旦修改一个生态,剩下的prompt、animatediff、controlnet都得做模型的适配,这点还是比较头疼的。我的做法就是无脑用最好看的生态。
    • Base Model等在civitai中找就行。
    • Base Model决定了最终绘制的大致风格,和对关键提示词的敏感度。
  • Lora可以理解为在基础模型上的修饰,比如基础模型可能决定了嘴唇的画法,Lora在这之上修改一下具体的细节。
    • Lora可以叠加!修改每个Lora的权重可以完成很多事情
    • LCM Lora可以加速。
  • IpAdapter可以学习到单个图片的色彩、风格、甚至服饰等要素,很强大。
  • AnimateDiff是用于动画平滑的,不做动画可以不管。

提示词控制的是语义

  • Text Prompt就是大家熟知的用文字描述画面内容
  • ControlNet可以加上更多有用的语义信息
    • 深度图可以决定最终生图的位置关系和透视关系
    • 线条(lineart/canny)图可以决定生图的必须出现的线条
    • OpenPose可以决定生图的姿势
    • ……
  • Latent Image决定是基于什么图进行采样去噪
    • 直接使用原图进行采样,就会跟原图极其相似
    • 也可以使用empty latent image,这样就随机发挥

然后模型、提示词等模块的各种参数都丢给生成模块的Ksampler进行生成了。

一切的问题都变成了模块的选还是不选,而这个决策在于“你想控制和不想控制什么”

后面的放大什么的,直接去YouTube找大神的教程视频Copy Paste适合工作流的即可。

我用的base model是flat-2d-animerge, Lora是minimalist-anime-style

蒙太奇剪辑

Text-Based蒙太奇,就是依照文字的变幻(天然适配Prompt Travel)的思路进行剪辑,特别适合流动的配合音乐叙事。这也是老技巧了。这种叙事,可以让观众直接根据流动的音乐,理解文字信息即可。

图片只是文字的诠释,没有更多的潜文本信息。

剪映有很多好用的模版字体,为了让视觉不那么容易疲惫,我在几个片段后加上了一点文字特效让眼睛休息一下。

利用AI的可控与不可控

本片核心就是研究,怎么利用AI的可控,和AI的不可控。

AI最擅长的就是乱画(不是),所以我很想让它画一下泼墨风格的背景,利用线条和曲线的灵动感。

AI不擅长的就是可控的人像,要让它稳定的画一个人物,单帧的不可控性就有20%,动画就更加不可控…最后就会变成调参工程。

所以我选择Devices,尤其是常见的物体,不要选择它不理解的物体。这样提示词也可以很简单。

动画思路:关掉AnimateDiff平滑吧!

放弃动画平滑控制

我想要的效果是瞬息万变,平行时空的感觉。

AnimateDiff的原理就是在采样的时候,以滑动窗口的形式进行窗口内的采样平滑,以完成视频的前后一致性。

它只是一个平滑工具,且有窗口限制。所以你会看到过了一小会儿,比如两秒后的视频和第一帧的一致性几乎就没有了,因为窗口后挪了。

我一开始做了一些加上AnimateDiff的实验,发现AnimateDiff的模型要对我选择的base model和lora进行适配,才能达到最优效果。然而直接使用,很容易出现“折叠”的多余线条或者流动的噪点。

对于创意片而言,这个可控反而阻碍了AI的发挥,你上的枷锁越多,就越难看。

AnimateDiff适合比较高帧率的平滑动画,达到30帧不在话下,所以关掉平滑之后,我只能把帧率调到8帧,让眼睛能够适应变化,意外的发现,好像视觉焦点放在不变的线条上,也是能看的。

保持线条不变控制

最核心的控制模块在于深度图和线框图的利用。

变化的是背景和颜色,不变的是物体的线条轮廓,能让人在变幻的体验中,依旧能辨别出不变的物体和运动轨迹。

线框图我会调到0.8+,深度图视情况<=0.35。(记住,没有确切参数答案,对本视频片段适用)

动画思路:试试Prompt Travel?

变化的是色彩

Prompt Travel我第一次在这位大神matt3o的工作流中看见。

原理就是:

  • 设置时间戳,每个时间戳的提示词不一样。
  • 时间戳变幻之间会有线性插值,实现自然平滑的过渡。

举个例子。我的prompt travel中在第0帧设置了blue,在第3帧设置了red。

虽然我的prompt最终没有用于设置animatediff来进行平滑,意味着我每一帧本身就是独立根据单帧prompt来生成的,前后帧的prompt没有任何关系。其实不需要batch image也是可以完成这样的效果的,把每一帧当成独立的帧渲染即可。

Prompt Travel的好处就是,它会在我设置的0-3帧中线性的过渡。

意思是,在第2帧,会同时出现blue和red,例如出现blue背景的red iphone手机。

这样就可以实现单帧不能实现的线性颜色变化。

对了,颜色什么的可以让GPT帮你写,比如前四个是我有限的词汇量了,后面又有背景又有高级颜色的是GPT帮我生成的。

相邻颜色之间最好差异比较大,才能凸显Travel的感觉。

不变的是规律与节奏

这一点是在OpenInterpreter的宣传片中拉片发现的,它其实没有那么多种的风格,是在固定的频率、固定的顺序和有限的风格中循环切换。看起来有很多的平行宇宙,有不一样的手绘风格,但太多的风格,反而容易对人的观感产生昏眩感,人的潜意识中必须要抓住什么不变的元素。

那就是变化色彩的规律,和变化色彩的节奏。

  • 在单个设备的两秒中,我保持了每隔3帧的变化色彩节奏。
  • 不同的设备,色彩变幻规律是一样的,都是按照上面提示词中描绘的色彩变化的。

这个达成的效果就如下图,单帧放出来就很能看清楚在做什么了!

人脑是很奇特的,即便你是没有意识到这是不变的,潜意识也会让你抓住这个规律,以至于每个设备变化之后,你还是知道它是从蓝色出发,三帧后到了红色,三帧后到了绿色……以此类推。

你可以现在带着这个解密思路再回去看看原视频,看看你是不是看出来了这个规律😏

单帧思路:怎么又潮又好看?

做动画的一般流程是,固定seed种子开始做可控变量实验。此时可以把渲染的steps调低(也可以加上LCM LORA加速),确定好工作流之后,再加大渲染次数进行高清渲染。加上放大的几个节点就得到最终效果。

单帧必须先跑通!

我一开始测试的有白板风格、各种草图Lora、各种base model。

最终选择了Flat2D的base model和sketchit / anime_minimalist 的lora。当然这个完全没有最终解,我后来发现由于我的sketchit lora的适配是sd1.0的,其实加上和不加几乎是一样的。而提示词和base model的适配影响大的多。

anime_minimalist我很喜欢,让所有的颜色变得更加扁平,没有三维的效果。

例如,我测试过加上whiteboard的提示词,发现背景板就非常的杂乱。

例如,由于Flat2D的模型训练中用了大量的动漫角色,而且肯定是用了大量的人物。(尤其是头)

很多时候我的提示词、ControlNet的图里面都没有人物,它还是会渲染出来人头(吓人)。

甚至有时候,会出现头发丝。背景图片中的曲线线条,很像是头发丝散落。其实本身就是按照这个特性,它才能把泼墨一般的背景画的很好的,线条其实就是“头发丝”中学会的知识,但也不要让它变得太像头发,会很吓人!

接下来就我讲讲我遇到的几个问题和解决思路。

线条不能多不能少

错误尝试风格一:简约线条太少

这个风格,每一帧都是很好看的艺术作品。但动起来就非常难以聚焦。

因为线条太多了,都是细线居多,甚至我的设备也只有线框本身和少量色彩点缀。视觉很难聚焦。

提示词用的是one blue phone, hand drawing, (clean background), flat color

使用cartoon的base model,加上hand drawing关键词

错误尝试风格二:背景线条太多

上面是我使用提示词iphone on the desktop, clean background, sketch作为背景的测试,采用了比较详细的背景描述。发现单帧确实是很好看,结果动起来太乱了。

因为背景里面也有跟主视觉物体相似的线条,因为桌面上一般都会有橡皮擦、铅笔、笔记本等物体,AI会主动脑补这些内容,所以desktop这个词被我禁掉了(笑)

错误尝试风格三:线条颜色太多

主要的提示词使用iphone, hand drawing, (clean background),按理来说也该干净了,背景没有出现杂乱的物体了,但是线条非常的粗,容易出现人物雏形。

解决思路就是,加上提示词flat color,因为我的lora和base model都对这个词训练过。加上之后,背景颜色立马变成了单色调,不会干扰视觉了。

我还试过直接使用线框图直接作为latent image渲染,也有一种诡异的美感。

引入人物的严重错乱

左图是我测试用手+耳机的动画,发现耳机太容易与人头关联起来,每隔几帧就会出现人物头像。而且由于我的负向提示词中写了heads/head/human/people等字样,出现的人物一般都不太成形态,出现如图所示的吓人模样。

解决方法是,尽可能使用与人不太相关的物体。然后在负向提示词中拼命加手、人、头等词语。出现什么不想要的,就测试加负向提示词。并且在正向提示词中添加数量词one iphone 会消除一部分问题。

右图是我使用线框图和nokia等提示词的单帧渲染,即便是我开了很高的线框ControlNet系数,还是出现了人物模样。解决思路还是加大量的负向提示词,或者直接换正向提示词。

例如,这个背景比较杂乱,可能换成clean background或者明确指明背景内容,对于某些帧就很有意义。

clean background这个词还可以添加一些权重,例如(clean background):1.2 背景会更干净(但动画不好看)。

另外,每一个帧的信息都不同,需要对单帧进行略微适配。

背景出现主体无关的设备

这是我最头疼也最经常出现的现象。有一些单帧,即便我已经调高了线框的控制程度,依旧出现了线框外“包裹”或者“延展”出去的不明残缺设备形状。

加上one iphone类似的数量限制并不能解决,模型对于数量提示词不敏感。(毕竟出现的也是半个)

(其实这个在流动的动画中看不太出来,如果只有一帧就还好!)

剖析原因,其实这个工作流中模型也依照了线框渲染了我想要的线条,“完成了我的任务”。问题在于在我没有控制的部分出现了“我不想要的内容”。说明我应该加大对于这几帧的控制。

再仔细看看图片,会发现,两个手机或者不明多余设备,在位置上里我渲染设备深度相似。

那加高深度图ControlNet的权重就好了!

因为利用深度图强调前背景的分离,就可以把设备“凸显”出来,因为遵循深度信息,就不应该在设备外层包裹更多内容。

但深度信息过多也不好,太过于可控会导致AI难以自然发挥。权衡+解决问题就好了!

我一般配置0.33深度图ControlNet的控制,达到分离效果即可。太强的深度图会让模型不知道画什么,它只能画远在天边的不成形的“云团”。

例如,下图是加上之后,nokia的背景和主体就分离的特别开。

IpAdapter控制线条风格

IpAdapter真的是风格迁移神器!我上面不是提过Lora我想加一些Sketch风格嘛,但是Sketchit是针对SD1.0训练的对我的SD1.5模型工作流基本不适应,很少能够改变风格。Anime_minimalist就很友好,可以做成扁平风。这些lora都可以做做试验看看效果。

但是IpAdapter,仅仅一张图就可以学到草图!

这张图是在OpenIntepreter宣传片中随便截的一张图做的测试,后来发现这张图就是我要的那张风格了(真的是实验科学,太随机了,这个work了…)因为我很喜欢这个里面的纸张的格子和潦草的线条。

但我不建议weight开太高,否则生图的颜色会太像参考图,我不希望只有黑色和粉色。

我选择了0.4(大多数时候)。

noise可以理解为,对Prompt放行的程度。

意思是,你愿意让模型控制的多,还是提示词控制的多。

noise越大,提示词的比例越大。这又是一个控制与不控制的权衡。由于我希望有大量的颜色变幻,所以我开的比默认0.25/0.3的值高了一些,用了0.4

单帧思路:单帧放大就行

放大是最简单的部分,因为不涉及人物和视频平滑,只要保证颜色色块准确就可以,所以按理来说想要多大都可以。

一般思路是使用一些原生的模型放大技巧,再用第三方模型放大,再用GAN这种非SD路径的模型放大颜色,再用一些第三方软件放大。这个思路是顺序进行的,逐一离工作流渲染方式越远。

我随便挑了两个放大的技巧:

  • 使用渲染视频的帧放大后作为Latent Image再采样渲染一次
  • 使用4xUltraSharp等模型进行放大

我还想用GAN放大结果发现内存溢出了(已经到2k了!其实不用放大到4k了!)

彩蛋!一个美丽的错误

最开始的时候我发现视频渲染一直有一些残影,像是自动加上了打光一样的效果。

我仔细看了看,每次都出现在原来的运动轨迹中,我才意识到,啊!我设置的跳过首帧参数忘了改。

我的深度图和线框图控制的时候延迟了一帧!

线框图控制了物体的形状不变,而延迟了一帧的深度图为了保证上一帧位置里面还存在一些物体,不得不渲染一个像是深色阴影的物体,就造成了残影跟随的效果。

这真是意外的发现,因为直接让我做残影效果我还不会做…真的是手笨也有意外的收获…

把工作流串联起来

以上就把很多踩的坑都讲了一遍,总体来说,创作思路是比较清晰的,有了明确的可控与不控的审美准则之后,剩下的就交给AI就好了。

我的直觉是,控制太多反而不适合AI发挥。所以最小程度进行控制是AI创作中的小tip吧。

下面就是完整的流程串起来的样子。

Blender白模动画

这个只是演示着玩,在ComfyUI中并没有使用到这个信息。

深度图动画

线框图动画

其实我都没有很精细的去debug为什么有的镜头不是完整的圆(blender设置问题吧),交给AI就好了!而且闪烁很快,其实不用太精细。

ComfyUI转绘

😊结语

对AI的一些思考

Sora出来之后很多人说影视行业没了,我觉得完全不是。

这是一种新的艺术形式,就跟摄影出现后不会替代画师一样。AI有自己擅长的东西,传统工作流有它擅长的东西。对于使用工具的人而言,只是多了一种创作思路罢了。

“在xxx情况下,使用xxx更简单”。实现思路+1

就比如说这样的短片,要是纯粹AI生图去做,肯定做不出来,你怎么保证它可以按照你想要的方向去旋转?

还有如果只是用传统的方式,做这个短片肯定非常耗时,因为很多背景只是{placeholder_for_colors},不需要精细处理。

而只是用AI+Blender做一个类似迪士尼的动画,效果也一定没有原来工业界的动画好看,仅仅是AnimateDiff的闪烁就会让人昏眩摸不着头脑。

还不如让它不可控。

AI的不可控,就让它发挥不可控的价值,以前的工作流也一定不要丢掉。

而两者结合做出来的,可能才是AI原生视频。

我觉得这项想象力的能力在新时代AI社会中非常的需要培养。

推荐大家去听一下任鑫的这一期播客,讲述“AI原生”的概念。

里面我很喜欢一个观念:重构流程,才能用好AI。

是的,如果把原有的影视创作流程中的工作流(其实好莱坞已经定义的超级清晰了),拆解到小模块,再去看AI可以干什么,越拆越细又会发现AI其实干不到这个模块的90分。直接舍弃原有的工作流,在新AI时代中的不同的好的产品中吸取灵感,去创作出新的AI原生内容,才是应该去思考和尝试的。

希望大家也多多思考,相互启发。

最后

以上就是我的工作流完整复盘了,整个视频制作了断断续续的三个小半天。

跑通第一个视频很困难,因为在创意和实现中来回辗转,后来顺手了一个片段能10分钟搞定一次渲染就成功哈哈。

其实技术什么的,开源社区的工作流和各路大神的教程真的很完整了,从小白入门到做出这样的视频也就一个月不到的时间。

创意和构思更关键!

再次感谢海辛阿文在我学习ComfyUI的路上的指导,和开源社区免费愿意分享的ComfyUI大神们!

有什么问题,欢迎留言讨论!

❤️

[Devices in MultiVerse] Prompt Travel WITHOUT AnimateDiff

如果本篇对你有帮助的话,还请多转发点赞,谢谢!

✨我是谁?

我是晨然,AI应用层探索者,全栈/产品/LLM应用/ComfyUI。

其实我是做大模型应用的:)

你可以在这里找到我: