Flux-Kontext-Dev使おうぜ
・プロンプト
https://docs.bfl.ai/guides/prompting_guide_kontext_i2i
画像を直接、comfyuiにドラッグするとワークフローが出来上がる。
stablitymatrixからダウンロードしても、うまく動かないので、直接インスコする
・必要なモデルファイル
ComfyUI/
├── models/
│ ├── diffusion_models/flux1-dev-kontext_fp8_scaled.safetensors
│ ├── vae/ae.safetensors
│ └── text_encoders/
│ ├── clip_l.safetensors
│ └── t5xxl_fp16.safetensors または t5xxl_fp8_e4m3fn_scaled.safetensors
■ ComfyUI ワークフロー例
1.基本ワークフロー (node分割型)
Load Diffusion Model で flux1-dev-kontext_fp8_scaled.safetensors
DualCLIP Load で clip_l と t5xxl_fp16/fp8 を読み込み
Load VAE で ae.safetensors を読み込み
Load Image で画像読み込み
CLIP Text Encode に英文プロンプト
Queue もしくは Ctrl + Enter で実行
著作権的なあれもいけるか
CLIP TextEncode (Positive Prompt)に
doraemon というシンプルな命令
脱がない!