
【ComfyUI手把手入门教学】免费 | 最强AI文生视频 | 图生视频 | 手把手教你 一键生成高质量影片|图形化Stable Diffusion工作流超简单!零基础也能上手!
ComfyUI 是一个基于节点的图形化 Stable Diffusion 工具,它把原本复杂的 AI 绘图流程,变成了像拼图一样简单的操作。
你可以随意拖拽组合节点,自定义 Prompt、模型、分辨率、步数等。
最棒的是,它完全开源,免费可用!
接下来就开始教程。我的电脑配置是:RTX4060,16G内存,1T固态硬盘,供参考。
视频教程请观看我的Youtube频道:(待上传)
一、安装Comfy UI
打开ComfyUI官网https://www.comfy.org/zh-cn/
点击下载,选择Windows或Mac版本。(本教程以Windows版本演示)。
下载后,双击安装exe,点击开始。
选择GPU(当前主流AI项目几乎都支持英伟达nvidia,所以建议用英伟达),当然了,如果没有,也可以选择右侧自定义,或者选择下方的“启用CPU模式”
选择安装位置。
“从现有安装迁移”:第一次安装就直接点“下一步”
桌面应用按照个人习惯自行设置就可以了,点击安装。
安装部署需要几分钟,耐心等待。
安装好之后,弹窗显示“缺少模型”,点击下载安装就可以了。
二、下载文本编码器、图像解码器(VAE)、视频生成模型
1.文本编码器:
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/text_encoders
显存12G以上,选择第一个,精度更高
12G以上(大部分普通用户)选择第二个下载
下载好后,找到ComfyUI根目录:ComfyUI/models/text_encoders/,默认在文档文件夹中。
2.VAE 图像解码器:
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/vae/wan_2.1_vae.safetensors
打开链接,点击“download”下载
把文件拖入根目录:ComfyUI/models/vae/
3.视频生成模型:
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/diffusion_models
下载wan2.1_t2v_1.3B_fp16.safetensors版本(质量最高,文件较小)
文件放在:ComfyUI/models/diffusion_models/
4.文字转视频工作流:
https://comfyanonymous.github.io/ComfyUI_examples/wan/text_to_video_wan.json
空白区点击鼠标右键,另存到桌面
三、文生视频
关闭ComfyUI,重新打开,把工作流拖进软件,可以看到默认的设置,我们先点击执行,测试一下,进度条跑完后,即可看到生成的视频
在“CLIP Text Encode”中,输入我们自己想要的内容,点击执行,即可获得相应的视频了。
四、图生视频
1.下载图生视频模型:
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/tree/main/split_files/diffusion_models
我选择较小的模型文件,wan2.1_i2v_720p_14B_fp8_e4m3fn.safetensors
放入根目录中:ComfyUI/models/diffusion_models/
2.下载模型:
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/clip_vision/clip_vision_h.safetensors
放入根目录中:ComfyUI/models/clip_vision/
3.下载工作流
https://comfyanonymous.github.io/ComfyUI_examples/wan/image_to_video_wan_example.json
空白区点击鼠标右键,另存到桌面
4.图生视频执行
重启ComfyUI,把图生视频工作流拖进来,上传图片,输入文字,点击执行。