ComfyUI·AI动画:下一波AIGC内容创作趋势?Mix Lab味知实验室关注共 1690字,需浏览 4分钟 ·2023-10-10 17:16 随着生成式AI技术(如Stable Diffusion、Midjourney)和个性化AI图像生成工具(如DreamBooth和LoRA)的不断发展,越来越多的人学会了如何创建静态图像。然而,现在大家已经不再满足于仅生成静态图像。 最近,随着模型和算法的优化,AIGC动画趋势已经逐渐显现,不用多久,动画创作也将如Midjourney、Stable Diffusion一样飞入千家万户。我在这篇文章也有提到过相关的趋势:AIGC革命:拐点降临的内容产业,如何赢得时代先机? 作为内容创作者要引起足够的重视,因为视频带来的流量机会和商业价值要比传统图文媒介大得多得多。前天,我在视频号发的AIGC视频数据就是最好的证明,这个视频主要用的是AnimeDiff技术实现的,文末有实现效果。 Shadow最近也在做动画的实验,大家可以看看效果:Comfyui的视频工作流 经过这些时间探索和研究,Shadow和我一致认为:继图片生成之后,AIGC创作的第二春又要来了! # 什么是ComfyUI? ComfyUI 是一个强大的、模块化的 Stable Diffusion GUI,具有图形 / 节点界面。此 UI 将允许你使用基于图形 / 节点 / 流程图的界面设计和执行高级 Stable Diffusion 管道。 换句话说通过拖拽就可以使用Stable Diffusion的完整功能,减轻了不会编程的小伙伴的学习压力。 使用comfyUI搭建的包装设计流程 ( by shadow # 什么是AnimateDiff? AnimateDiff是一种生成式AI工具,它能够将文本或静态图像转化为高质量的个性化动画图像,无需复杂的模型微调。AnimateDiff的目标是将Stable Diffusion的能力扩展到动画生成领域。 如下面视频所示: 为实现这一目标,AnimateDiff在已通过文本生成的AI图像或模型基础上添加一个新的动画模块,并通过视频剪辑对其进行训练,以生成与原始图像相对应的动画效果。一旦训练完成,用户可以轻松地将这个动画模块应用到各种通过文本生成的AI图像或模型上,从而为它们添加多样化和个性化的动画。 论文地址:https://arxiv.org/abs/2307.04725 与现有方法相比,AnimateDiff 由于从大量视频中学习了合理的动作先验知识,生成的动画在连续性上表现更优。它拥有良好的一致性和多样性。最关键的是视频过渡非常流畅,几乎没有闪烁! 这一创新性的方法为艺术家、研究者和爱好者提供了一个强大的工具,以更富创意和互动性的方式呈现其生成的图像内容。 测试效果: 网友测试 最终作品 网友测试 测试#动画流程(by shadow # 展望 ComfyUI解决了门槛问题,AnimteDiff解决了效果问题,我们相信接下去不久的时间,必然会再掀起一个AIGC热潮。这是每个创作者都不可错过的机会。 Shadow和我联合开了个星球《Comfyui动画知识库》,将不断更新相关的资料和内容,我们就是希望通过更简单的AIGC的方式,和大家一起创作出更加丰富有趣的AIGC视频内容。 早期用户优惠 满50人后开始涨价 浏览 588点赞 评论 收藏 分享 手机扫一扫分享分享 举报 评论图片表情视频评价全部评论推荐 下一波世界趋势下一波世界趋势0下一波世界趋势世界真的是这样吗? 2008年世界经济危机促使人们思考,如果没有全球化,美国次贷危机可以控制在AIGC:智能创作时代在人工智能发展的漫长历程中,如何让机器学会创作一直被视为难以逾越的天堑,“创造力”也因此被视为人类与AIGC:智能创作时代AIGC:智能创作时代0品创作动画品创作动画0内容创作生态是什么?马虎眼064 Studio数字内容创作64Studio是一份软件套装,面向x86_64硬件平台上的数字内容创作,支持AMD的64位CPU及Intel的EM64T芯片。它基于DebianGNU/Linux的纯64位版本,但它进行了特定的软件【内容生态】内容生态搜索趋势研究报告数据D江湖064 Studio数字内容创作64 Studio是一份软件套装,面向x86_64硬件平台上的数字内容创作,支持AMD的64位CPUAI创作者,搭建元宇宙内容生产模式#文字内容 AI 工具与创作平台推荐Mix Lab味知实验室0点赞 评论 收藏 分享 手机扫一扫分享分享 举报