使用 ComfyUI、Flux 與 Wan2.1 在本機電腦生成 AI 視頻:超詳細教學
從環境配置到視頻生成流程,本文提供完整步驟,適合想了解 AI 視頻生成的開發者與愛好者。
前置準備:硬體與軟體需求
在開始之前,請確保你的系統滿足以下要求,以便順利生成 AI 視頻:
硬體要求
- GPU 支援: NVIDIA GPU(建議至少 6GB VRAM),並安裝最新的 CUDA 驅動程序。
- 記憶體: 至少 16GB RAM,高分辨率視頻可能需要更多內存。
作業系統
Windows 10/11、macOS 或 Linux 均可,但部分工具可能需要根據平台進行微調。
軟體要求
- Python 3.8 及以上: 確保 Python 正確安裝並配置。
- Git: 用於克隆各個開源項目。
- FFmpeg(選用): 可用於 Flux 合成視頻的手動調試或後期處理。
環境配置與依賴安裝
為避免不同工具間依賴衝突,建議為每個項目建立獨立的 Python 虛擬環境。以下以 ComfyUI 為例:
1. 建立虛擬環境
python -m venv comfyenv
2. 啟動虛擬環境
# Windows:
comfyenv\Scripts\activate
# macOS / Linux:
source comfyenv/bin/activate
3. 更新 pip 並安裝依賴
pip install --upgrade pip
對於 Flux 和其他工具,也可採用類似方式建立獨立虛擬環境,以便更好管理各自依賴版本。
ComfyUI 安裝與配置詳解
ComfyUI 是基於節點的圖形化介面,主要用於 Stable Diffusion 靜態圖片生成,其靈活節點系統可組合連續幀用於視頻製作。
1. 克隆項目與安裝依賴
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
pip install -r requirements.txt
2. 啟動與基本配置
啟動介面: 執行下列命令啟動 ComfyUI:
python main.py
預設會在 http://localhost:8188
開啟瀏覽器介面,開始配置節點與生成圖片。
配置說明:
- 節點設定: 新增圖片生成及文本提示節點,調整「隨機種子」與「樣式參數」,確保各幀間既有變化又保持一致風格。
- 儲存路徑: 指定生成圖片儲存目錄(例如
./outputs/frames
),並確保文件名按順序命名(如frame_0001.png
)。
進階設定: 編輯 config.json
調整分辨率、步驟數、采樣器等參數。參考官方文檔以獲取更多細節。
Flux 安裝與配置詳解
Flux 主要針對 AI 視頻生成,負責將 ComfyUI 生成的圖片序列進行後期處理與合成,支援自定義幀率、轉場效果及色彩校正。
1. 克隆與安裝
git clone https://github.com/your-flux-repo/Flux.git
cd Flux
pip install -r requirements.txt
注意: 請根據實際的 Flux 官方 GitHub 地址替換上述 URL。
2. 配置 Flux
配置文件: Flux 包含 config.json
或 settings.yaml
文件,定義視頻生成參數:
{
"input_folder": "./outputs/frames",
"output_video": "./outputs/video.mp4",
"frame_rate": 24,
"transition_effect": "fade",
"resolution": "1920x1080"
}
Flux 根據此配置讀取圖片序列並設置幀率、轉場效果。
測試配置: 執行下列命令確認配置是否正確:
python flux_main.py --config config.json
Wan2.1 模型下載與集成
Wan2.1 為 Stable Diffusion 2.1 優化後的模型版本,專注於提升視頻生成中畫面連續性與動態效果。
1. 模型下載
前往官方或社群指定的頁面下載 Wan2.1 模型(格式通常為 .ckpt
或 .safetensors
),並確認來源可信及授權條款。
2. 模型放置與配置
放置模型: 將下載的模型文件放入 ComfyUI 預設模型資料夾(例如 ./models/Wan2.1/
)。
更新配置: 在 ComfyUI 介面或配置文件中選擇 Wan2.1 模型,確保生成圖片時自動採用此模型(通常在「模型管理」中設定)。
整合工作流程:從幀生成到視頻合成
完成各工具配置後,將 ComfyUI、Flux 與 Wan2.1 協同運作,生成完整 AI 視頻。
步驟 1:使用 ComfyUI 生成連續幀
- 設計節點流程: 在 ComfyUI 中建立工作流,從「文本提示」節點開始,接入圖片生成節點(設定使用 Wan2.1 模型),並調整參數確保畫面連貫性。
- 批量生成: 設定總幀數(如 240 幀對應 10 秒 24fps 視頻),並設定輸出路徑與命名規則(如
frame_0001.png
至frame_0240.png
)。
步驟 2:利用 Flux 合成視頻
- 導入圖片序列: 確認 Flux 配置文件中的
input_folder
指向生成圖片的資料夾。 - 設定視頻參數: 指定幀率、解析度及轉場效果。
- 合成與輸出: 執行 Flux 腳本,將圖片序列合成為 MP4 視頻文件。
步驟 3:針對關鍵幀調整
若部分畫面過渡不順,可返回 ComfyUI 調整參數,或在 Flux 中使用手動調整功能。
實戰案例:生成 10 秒 24fps 短視頻
以下案例展示如何從零開始生成 10 秒(240 幀)的視頻:
1. 建立專案資料夾結構
project/
├── ComfyUI/ # ComfyUI 安裝目錄
├── Flux/ # Flux 安裝目錄
├── models/
│ └── Wan2.1.ckpt # 下載的 Wan2.1 模型文件
└── outputs/
├── frames/ # 存放生成圖片序列
└── video.mp4 # Flux 輸出視頻文件
2. 在 ComfyUI 中設計節點流程
- 打開瀏覽器訪問
http://localhost:8188
。 - 拖拉「文本提示」節點,輸入視頻主題(如「夜晚都市的未來感景觀」)。
- 添加圖片生成節點,選擇 Wan2.1 模型,設定生成步驟(如 50 步)與分辨率(如 1280x720)。
- 設置迴圈節點,設定總共 240 幀,每一幀根據前一幀微調確保連貫性。
- 設定輸出節點,將圖片保存至
./outputs/frames
,命名規則為frame_XXXX.png
。
3. 批量生成圖片
點擊「開始生成」按鈕,等待圖片生成完成。若生成速度過慢,請檢查 GPU 資源或調整步驟數。
4. 在 Flux 中合成視頻
編輯 Flux 配置文件,確認如下參數:
{
"input_folder": "../outputs/frames",
"output_video": "../outputs/video.mp4",
"frame_rate": 24,
"transition_effect": "fade",
"resolution": "1280x720"
}
運行 Flux 腳本後,播放生成視頻檔案以檢查流暢度與效果。
5. 後續優化與驗證
若畫面過渡不順,請返回 ComfyUI 調整參數,或在 Flux 中嘗試其他轉場效果。使用 FFmpeg 驗證視頻資訊:
ffmpeg -i ../outputs/video.mp4
故障排除與常見問題
- 啟動 ComfyUI 或 Flux 時報錯: 檢查是否正確啟動虛擬環境,並確認 Python 依賴版本(可用
pip list
檢查)及 Git 克隆代碼完整性。 - 圖片生成速度過慢: 確認 GPU 驅動與 CUDA 正確安裝,並考慮降低分辨率或生成步驟數。
- 視頻合成後跳幀或不同步: 確認圖片命名連續,並檢查 Flux 配置中的幀率設置。
- 模型加載失敗: 檢查 Wan2.1 模型文件完整性及路徑配置,部分格式可能需額外依賴(如 safetensors)。
總結與進階擴展
本文詳細介紹如何在本機電腦上從零開始使用 ComfyUI、Flux 與 Wan2.1 生成 AI 視頻,涵蓋環境配置、工具安裝、視頻生成流程與故障排除。透過這套開源工具組合,你可以靈活調整參數、生成各種風格的視頻,並進一步進行自定義濾鏡、結合音頻生成等進階應用。
隨著技術持續進步,請持續關注相關 GitHub 頁面與論壇討論,以獲取最新資訊與技巧。希望這篇教學能幫助你搭建 AI 視頻生成平台,啟發更多創意應用!
若有任何疑問或反饋,歡迎留言討論,共同推動 AI 視頻生成技術的發展。
```