ComfyUI 是一个基于节点的图形化 Stable Diffusion 工具,它把原本复杂的 AI 绘图流程,变成了像拼图一样简单的操作。
你可以随意拖拽组合节点,自定义 Prompt、模型、分辨率、步数等。
最棒的是,它完全开源,免费可用!

接下来就开始教程。我的电脑配置是:RTX4060,16G内存,1T固态硬盘,供参考。

视频教程请观看我的Youtube频道:(待上传)

一、安装Comfy UI

打开ComfyUI官网https://www.comfy.org/zh-cn/
点击下载,选择Windows或Mac版本。(本教程以Windows版本演示)。
下载后,双击安装exe,点击开始。
选择GPU(当前主流AI项目几乎都支持英伟达nvidia,所以建议用英伟达),当然了,如果没有,也可以选择右侧自定义,或者选择下方的“启用CPU模式”
选择安装位置。
“从现有安装迁移”:第一次安装就直接点“下一步”
桌面应用按照个人习惯自行设置就可以了,点击安装。
安装部署需要几分钟,耐心等待。
安装好之后,弹窗显示“缺少模型”,点击下载安装就可以了。

二、下载文本编码器、图像解码器(VAE)、视频生成模型

1.文本编码器:

https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/text_encoders
显存12G以上,选择第一个,精度更高
12G以上(大部分普通用户)选择第二个下载

下载好后,找到ComfyUI根目录:ComfyUI/models/text_encoders/,默认在文档文件夹中。

2.VAE 图像解码器:

https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/vae/wan_2.1_vae.safetensors
打开链接,点击“download”下载
把文件拖入根目录:ComfyUI/models/vae/

3.视频生成模型:

https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/diffusion_models
下载wan2.1_t2v_1.3B_fp16.safetensors版本(质量最高,文件较小)
文件放在:ComfyUI/models/diffusion_models/

4.文字转视频工作流:

https://comfyanonymous.github.io/ComfyUI_examples/wan/text_to_video_wan.json
空白区点击鼠标右键,另存到桌面

三、文生视频

关闭ComfyUI,重新打开,把工作流拖进软件,可以看到默认的设置,我们先点击执行,测试一下,进度条跑完后,即可看到生成的视频

在“CLIP Text Encode”中,输入我们自己想要的内容,点击执行,即可获得相应的视频了。

四、图生视频

1.下载图生视频模型:

https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/diffusion_models
我选择较小的模型文件,wan2.1_i2v_720p_14B_fp8_e4m3fn.safetensors
放入根目录中:ComfyUI/models/diffusion_models/

2.下载模型:

https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/clip_vision/clip_vision_h.safetensors
放入根目录中:ComfyUI/models/clip_vision/

3.下载工作流

https://comfyanonymous.github.io/ComfyUI_examples/wan/image_to_video_wan_example.json
空白区点击鼠标右键,另存到桌面

4.图生视频执行

重启ComfyUI,把图生视频工作流拖进来,上传图片,输入文字,点击执行。