🚀 pytorch_lora_weights.safetensors
本模型是基于Stable Diffusion架构微调的模型,借助低秩自适应(LoRA)技术,使用CelebA - HQ和FFHQ这两个以高质量人脸图像著称的数据集进行训练,可用于生成高质量的人脸图像。
🚀 快速开始
本模型是Stable Diffusion架构的微调版本,利用了低秩自适应(LoRA)技术。它使用CelebA - HQ和FFHQ数据集进行训练,这两个数据集都以其高质量的人脸图像而闻名。
✨ 主要特性
- 微调架构:基于Stable Diffusion架构进行微调,能更好地适应特定任务。
- LoRA技术:采用低秩自适应(LoRA)技术,提高训练效率和模型性能。
- 优质数据集:使用CelebA - HQ和FFHQ数据集训练,保证生成人脸图像的质量。
📦 安装指南
暂未提供具体安装命令,跳过此章节。
💻 使用示例
基础用法
import torch
from diffusers import StableDiffusionPipeline,UNet2DConditionModel
pipeline = StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5").to("cuda")
pipeline.load_lora_weights("phil329/face_lora_sd15", weight_name="pytorch_lora_weights.safetensors")
NEGATIVE_PROMPT = "worst quality, low quality, bad anatomy, watermark, text, blurry, cartoon, unreal"
text = 'A young woman with smile, wearing a purple hat.'
lora_image = pipeline(text,negative_prompt=NEGATIVE_PROMPT).images[0]
display(lora_image)
高级用法
暂未提供高级用法的代码示例,跳过此部分。
📚 详细文档
训练详情
属性 |
详情 |
基础模型 |
Stable Diffusion |
自适应技术 |
低秩自适应(LoRA) |
数据集 |
CelebA - HQ(30,000张图像),FFHQ(70,000张图像) |
分辨率 |
512*512,用于详细面部合成的微调 |
示例用法
使用以下四个提示进行图像生成:
- 'A young woman with smile, wearing a purple hat.'
- 'A middle - aged man,beard ,attractive'
- 'A girl with long blonde hair'
- 'An young man with curry hair'
负提示与示例代码中的相同。所有结果都是随机生成的,并非经过挑选的。
如果生成效果不佳,可以尝试添加负提示,或者尝试不同的提示和种子。

🔧 技术细节
本模型基于Stable Diffusion架构,通过低秩自适应(LoRA)技术进行微调。使用CelebA - HQ和FFHQ数据集进行训练,这些数据集包含大量高质量的人脸图像,有助于模型学习到丰富的人脸特征。在训练过程中,将分辨率设置为512*512,以实现详细的面部合成。
📄 许可证
本模型采用MIT许可证。