/s/17_DgKH_x_9aYwi2weBLdkA 提取码: ib1m
一、什么是comfyui ComfyUI就像拥有一支神奇魔杖,可以轻松创造出令人惊叹的AI生成艺术。从本质上讲,ComfyUI是构建在Stable Diffusion之上的基于节点的图形用户界面(GUI),而Stable Diffusion是一种最先进的深度学习模型,可以根据文本描述生成图像。 但ComfyUI真正特别之处在于,它如何让像你这样的艺术家释放创造力,将你最疯狂的想法变为现实。
想象一下有一块数字画布,你可以通过连接不同的节点来构建自己独特的图像生成工作流,每个节点代表一个特定的功能或操作。 就像为你的AI生成杰作构建一个视觉食谱!
二、SD和ComfyUI没关系 由于 Stable Diffusion WebUI 名气过大,用户量远超其它同类,好多介绍 AIGC 平台的文章只说了 SD WebUI,其它平台只字未提,导致一些新同学错误的认为 SD WebUI 等同于 SD,并且直接用 SD 来作为 Stable Diffusion WebUI 的代称。
但 WebUI 只是使用 Stable Diffusion 之类模型技术来进行图像生成的工具,而比较不错的同类平台还有 WebUI Forge、ComfyUI、SD.Next、Fooocus、InvokeAI,还有曾经夭折后又被接力开发的 StabilityAI 原产软件 SwarmUI,它们最初都主要使用 Stable Diffusion 模型。
虽然它们皆是同类工具,但其使用方法和性能还是存在不小差异的,所以不建议学习多个。但可以多去了解从而找到自己更喜欢的平台,然后把它熟练的掌握。
三、整体页面布局 ComfyUI的新版界面设计直观且用户友好,旨在简化工作流创建和管理。其布局主要分为以下几个部分: 工作流基本操作:提供工作流文件、编辑、帮助等常规操作。工作流视觉控制:调整工作流的大小,节点之间的连线控制等。工作流工作区:在这里设计你的工作流,添加、删除以及设置节点。资源管理:包括任务队列、节点库、模型库、工作流和当前工作流节点等的管理。设置:主题开关、ComfyUI及其插件自带的一些设置。区域开关:右上角提供了若干区域的隐藏/显示按钮。执行与队列:启动或取消工作流,还包括设置工作流的执行次数。插件扩展:插件提供的一些功能操作,比如语言切换、GPU使用情况展示、插件管理等。
四、ComfyUI 与 AUTOMATIC1111 的比较 AUTOMATIC1111 是 Stable Diffusion 的事实上的 GUI。你应该使用 ComfyUI 而不是 AUTOMATIC1111 吗?以下是一些比较: 使用 ComfyUI 的好处:
轻量级:它运行得很快。 灵活:易配置。 透明:数据流就在你面前。 易于分享:每个文件都是一个可复现的工作流。 适合原型设计:使用图形界面而不是编码进行原型设计。
使用 ComfyUI 的缺点: 界面不一致:每个工作流可能会将节点放置在不同的位置。你需要弄清楚要更改什么。 细节过多:普通用户不需要知道幕后是如何连接的。(这其实就是使用 GUI 的意义)
五、工作流 工作流是由一个个操作节点连接起来的,每个节点会完成一个独立的操作,比如加载模型、编码提示词等,上游节点的输出会作为下游节点的输入,直到最后一个节点输出最终的内容。节点的输入除了来自上游节点的输出,还有一些来自用户的输入,节点可能会包含一些输入框或者选择框,比如SD基础模型选择框、提示词输入框等等。
ComfyUI 默认会加载一个简单的工作流,这是一个最基础的工作流,可以让我们清晰的了解工作流的组织方式和图片的生成过程。我将按照从左到右的顺序进行介绍: Load Checkpoint:这个节点用来加载 Stable Diffusion 基础模型,基础模型是生成图片必需的,不同的基础模型可能擅长生成不同事物或者风格的图片,比如这里的 realisticVisionV51_v51VAE 擅长生成真实视觉图像。国内用户可以在 https://liblib.art 下载自己喜欢或者需要的基础模型。
这个节点有三个输出:MODEL、CLIP和VAE,MODEL就是从硬盘加载到的SD基础模型,用于后续采样处理,CLIP是文本到图像的映射模型,用来编码文本提示词,VAE是图像数据解码器,用于最终生成可见的图像。
CLIP Text Encode(Prompt):文本编码器。目前人工智能的背后就是大量的向量计算,文本编码器就是把文字转换成向量,然后再进行各种复杂的运算。这里有两个文本编码器,分别对应正向提示词和反向提示词,它们都有一个clip输入,接收 Load Checkpoint 节点从SD基础模型中提取出的CLIP模型,用于编码提示词。编码后的内容会作为采样器的采样条件。同一个词语在不同的SD基础模型中可能对应到不同的向量数据,因此CLIP模型是从SD基础模型中提取出来的。
KSampler:K采样器。这是生成图片的核心组件,主要用来实现SD模型的反向扩散过程,反向扩散是从一张完全噪音图(电视没有信号的画面)开始,通过采样逐步去除噪音,最终生成图片的过程。这个节点有很多参数,也就是有很多输入。
六、为什么是ComfyUI 经常拿出来和 ComfyUI 对比的是 Stable Diffusion web UI,ComfyUI 和 SD WebUI 的主要区别在于它们的用户界面设计和工作流程的实现方式。ComfyUI 是一个基于节点的图形用户界面(GUI),允许用户通过将不同的块(称为节点)链接在一起来构建图像生成工作流程。这种设计使得用户可以更精确地定制和复现图像生成过程
选择使用 ComfyUI 有如下几点考虑: 高度模块化和定制化的特点,让你可以了解原理,知其然知其所以然; 适合有一定技术背景,接触过UE蓝图的同学肯定不陌生 对图像生成有深入需求的用户 逼格更高 工作流可分享
有疑问加站长微信联系(非本文作者)
