ILSVRC/imagenet-1k
Viewer • Updated • 1.43M • 94.7k • 798
How to use kaimoonstar/SD1.5_imageNet with Diffusers:
pip install -U diffusers transformers accelerate
import torch
from diffusers import DiffusionPipeline
# switch to "mps" for apple devices
pipe = DiffusionPipeline.from_pretrained("kaimoonstar/SD1.5_imageNet", dtype=torch.bfloat16, device_map="cuda")
prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
image = pipe(prompt).images[0]import torch
from diffusers import DiffusionPipeline
# switch to "mps" for apple devices
pipe = DiffusionPipeline.from_pretrained("kaimoonstar/SD1.5_imageNet", dtype=torch.bfloat16, device_map="cuda")
prompt = "Astronaut in a jungle, cold color palette, muted colors, detailed, 8k"
image = pipe(prompt).images[0]这是一个在 ImageNet 数据集上微调的 Stable Diffusion 1.5 模型。
与常规微调不同的是,本模型的训练没有使用 ImageNet 原始的单一类别标签(例如 "tench" 或 "goldfish")。相反,我们使用 BLIP 模型为 ImageNet 数据库中的每张图片生成了描述性的文本提示(Prompt)。
这种方法使得模型能够学习图像与更丰富、更具上下文的文本描述之间的联系,而不仅仅是学习僵硬的类别名称。
你可以像使用其他 diffusers 库中的 Stable Diffusion pipeline 一样使用这个模型。
首先,确保你安装了必要的库:
pip install diffusers transformers torch
Base model
rupeshs/LCM-runwayml-stable-diffusion-v1-5