Spaces:
Paused
Paused
| { | |
| "3": { | |
| "inputs": { | |
| "seed": 156680208700286, | |
| "steps": 8, | |
| "cfg": 1.8, | |
| "sampler_name": "lcm", | |
| "scheduler": "sgm_uniform", | |
| "denoise": 1, | |
| "model": [ | |
| "14", | |
| 0 | |
| ], | |
| "positive": [ | |
| "6", | |
| 0 | |
| ], | |
| "negative": [ | |
| "7", | |
| 0 | |
| ], | |
| "latent_image": [ | |
| "5", | |
| 0 | |
| ] | |
| }, | |
| "class_type": "KSampler", | |
| "_meta": { | |
| "title": "KSampler" | |
| } | |
| }, | |
| "4": { | |
| "inputs": { | |
| "ckpt_name": "dreamshaper_8.safetensors" | |
| }, | |
| "class_type": "CheckpointLoaderSimple", | |
| "_meta": { | |
| "title": "Load Checkpoint" | |
| } | |
| }, | |
| "5": { | |
| "inputs": { | |
| "width": 512, | |
| "height": 768, | |
| "batch_size": 1 | |
| }, | |
| "class_type": "EmptyLatentImage", | |
| "_meta": { | |
| "title": "Empty Latent Image" | |
| } | |
| }, | |
| "6": { | |
| "inputs": { | |
| "text": "a half-portrait of a female, sorceress with long hair, with black skin tone, highly detail, high resolution", | |
| "clip": [ | |
| "10", | |
| 1 | |
| ] | |
| }, | |
| "class_type": "CLIPTextEncode", | |
| "_meta": { | |
| "title": "CLIP Text Encode (Prompt)" | |
| } | |
| }, | |
| "7": { | |
| "inputs": { | |
| "text": "text, watermark", | |
| "clip": [ | |
| "10", | |
| 1 | |
| ] | |
| }, | |
| "class_type": "CLIPTextEncode", | |
| "_meta": { | |
| "title": "CLIP Text Encode (Prompt)" | |
| } | |
| }, | |
| "8": { | |
| "inputs": { | |
| "samples": [ | |
| "3", | |
| 0 | |
| ], | |
| "vae": [ | |
| "4", | |
| 2 | |
| ] | |
| }, | |
| "class_type": "VAEDecode", | |
| "_meta": { | |
| "title": "VAE Decode" | |
| } | |
| }, | |
| "10": { | |
| "inputs": { | |
| "lora_name": "lcm-lora-sdv1-5.safetensors", | |
| "strength_model": 1, | |
| "strength_clip": 1, | |
| "model": [ | |
| "4", | |
| 0 | |
| ], | |
| "clip": [ | |
| "4", | |
| 1 | |
| ] | |
| }, | |
| "class_type": "LoraLoader", | |
| "_meta": { | |
| "title": "Load LoRA" | |
| } | |
| }, | |
| "13": { | |
| "inputs": { | |
| "preset": "STANDARD (medium strength)", | |
| "model": [ | |
| "10", | |
| 0 | |
| ] | |
| }, | |
| "class_type": "IPAdapterUnifiedLoader", | |
| "_meta": { | |
| "title": "IPAdapter Unified Loader" | |
| } | |
| }, | |
| "14": { | |
| "inputs": { | |
| "weight": 0.6, | |
| "start_at": 0, | |
| "end_at": 1, | |
| "weight_type": "standard", | |
| "model": [ | |
| "13", | |
| 0 | |
| ], | |
| "ipadapter": [ | |
| "13", | |
| 1 | |
| ], | |
| "image": [ | |
| "15", | |
| 0 | |
| ] | |
| }, | |
| "class_type": "IPAdapter", | |
| "_meta": { | |
| "title": "IPAdapter" | |
| } | |
| }, | |
| "15": { | |
| "inputs": { | |
| "image": "advance_input_img.jpg", | |
| "upload": "image" | |
| }, | |
| "class_type": "LoadImage", | |
| "_meta": { | |
| "title": "Load Image" | |
| } | |
| }, | |
| "41": { | |
| "inputs": { | |
| "filename_prefix": "ComfyUI", | |
| "images": [ | |
| "8", | |
| 0 | |
| ] | |
| }, | |
| "class_type": "SaveImage", | |
| "_meta": { | |
| "title": "Save Image" | |
| } | |
| }, | |
| "42": { | |
| "inputs": {}, | |
| "class_type": "BRIA_RMBG_ModelLoader_Zho", | |
| "_meta": { | |
| "title": "🧹BRIA_RMBG Model Loader" | |
| } | |
| }, | |
| "43": { | |
| "inputs": { | |
| "rmbgmodel": [ | |
| "42", | |
| 0 | |
| ], | |
| "image": [ | |
| "8", | |
| 0 | |
| ] | |
| }, | |
| "class_type": "BRIA_RMBG_Zho", | |
| "_meta": { | |
| "title": "🧹BRIA RMBG" | |
| } | |
| }, | |
| "44": { | |
| "inputs": { | |
| "filename_prefix": "ComfyUI", | |
| "images": [ | |
| "43", | |
| 0 | |
| ] | |
| }, | |
| "class_type": "SaveImage", | |
| "_meta": { | |
| "title": "Save Image" | |
| } | |
| }, | |
| "45": { | |
| "inputs": { | |
| "filename_prefix": "ComfyUI", | |
| "images": [ | |
| "46", | |
| 0 | |
| ] | |
| }, | |
| "class_type": "SaveImage", | |
| "_meta": { | |
| "title": "Save Image" | |
| } | |
| }, | |
| "46": { | |
| "inputs": { | |
| "mask": [ | |
| "43", | |
| 1 | |
| ] | |
| }, | |
| "class_type": "MaskToImage", | |
| "_meta": { | |
| "title": "Convert Mask to Image" | |
| } | |
| } | |
| } |