Important
I decided to move my development to the better cubiq's repository.
This repository may not be available anymore due to future updates of ComfyUI.
IP-AdapterのComfyUIカスタムノードです。
- custom_nodesにclone
IPAdapter-ComfyUI/models
にip-adapterのモデル(例:SDv1.5用モデル)を入れる。ComfyUI/models/clip_vision
にCLIP_visionモデル(例:SDv1.5用モデル)を入れる。
ip-adapter.json
を参照してください。
- model:modelをつなげてください。LoRALoaderなどとつなげる順番の違いについては影響ありません。
- image:画像をつなげてください。
- clip_vision:
Load CLIP Vision
の出力とつなげてください。 - mask:任意です。マスクをつなげると適用領域を制限できます。必ず生成画像と同じ解像度にしてください。
- weight:適用強度です。
- model_name:使うモデルのファイル名を指定してください。
- dtype:黒い画像が生成される場合、
fp32
を選択してください。ほとんど生成時間が変わらないのでずっとfp32
のままでもよいかもしれません。
- MODEL:KSampler等につなげてください。
- CLIP_VISION_OUTPUT:ふつうは気にしなくていいです。Revision等を使うときに無駄な計算を省くことができます。
ノードを自然につなげることで、複数画像を入力することができます。Maskと組み合わせることで、左右で条件付けを分けるみたいなこともできます。 背景も分割されてしまうことが問題ですね^^;
- 入力画像は自動で中央切り抜きによって正方形にされるので、避けたい場合は予め切り取り処理をするか、
preprocess/furusu Image crop
を使うとよいかもしれません。preprocess/furusu Image crop
にはパディングをするpadding
とキャラの顔位置を基準に切り取りをするface_crop
があります。face_crop
に必要なlbpcascade_animeface.xmlは自動ダウンロードできない場合があるので、その場合は手動でリポジトリ直下に入れてください。
Apply ControlNetはなぜかバグるので、代わりにApply ControlNet(Advanced)を使ってください。多分治った。
- official models:https://huggingface.co/h94/IP-Adapter
- my models:https:https://huggingface.co/furusu/IP-Adapter
IP-Adapter:https://github.com/tencent-ailab/IP-Adapter