stable diffusion的安装和使用并不复杂,首先需搭建python 3.10.6环境、安装与显卡驱动匹配的cuda及git工具,接着通过命令行克隆automatic1111的webui项目,下载如sd-v1-5-inpainting.ckpt等模型文件并放入指定目录,最后运行webui-user.bat或webui.sh启动服务,在浏览器中输入提示词如“a cat wearing sunglasses”即可生成图像;其对电脑配置要求主要体现在显卡上,建议至少6gb显存,推荐8gb以上,若显存不足可启用低显存模式但速度会降低;要生成高质量图片,需编写具体清晰的提示词,使用“photorealistic”“8k”“highly detailed”等正向词汇,并添加“blurry”“ugly”等负面提示词排除不想要的内容,同时参考优秀提示词网站积累经验;若生成速度慢,可通过降低分辨率、减少迭代步数、选用快速采样方法、使用优化版本或加速插件来提升性能,定期更新显卡驱动也能显著提高效率;当生成结果不满意时,可调整提示词、利用图生图功能以原图为基础修改,或结合后期处理软件进行润色;常用模型包括realistic vision(写实风格)、anything v3(动漫风格)、deliberate(人像)以及可通过lora进行微调的专用模型,用户可根据创作需求选择合适模型以获得理想效果。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

Stable Diffusion的安装和使用,其实并没有想象中那么复杂。简单来说,就是先搭建好环境,然后下载模型,最后就可以开始生成图像了。 当然,中间会遇到一些坑,但别担心,我会一步一步带你趟过去。
解决方案
-
环境搭建:
- Python: 确保你安装了Python 3.10.6。更高版本可能会有问题,别问我为什么,踩过坑。
- CUDA: 如果你有NVIDIA显卡,那么安装CUDA是必须的。CUDA版本要和你的显卡驱动匹配,这个很重要!可以在NVIDIA官网找到对应的版本。
- Git: 用于下载Stable Diffusion WebUI。
-
下载Stable Diffusion WebUI:
- 打开你的命令行工具(比如CMD或者Terminal)。
- 输入
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
。 - 等待下载完成,这可能需要一段时间。
-
模型下载:
- 你需要一个Stable Diffusion的模型文件(通常是
.ckpt
或者.safetensors
格式)。可以从Hugging Face下载,例如sd-v1-5-inpainting.ckpt
。 - 将下载好的模型文件放到
stable-diffusion-webui/models/Stable-diffusion
目录下。
- 你需要一个Stable Diffusion的模型文件(通常是
-
启动WebUI:
- 进入
stable-diffusion-webui
目录。 - 运行
webui-user.bat
(Windows)或者./webui.sh
(Linux/Mac)。 - 等待一段时间,它会自动下载依赖。
- 启动完成后,会在命令行显示一个网址,复制到浏览器打开。
- 进入
-
开始生成图像:
- 在WebUI界面输入你的提示词(Prompt),比如 "a cat wearing sunglasses"。
- 点击 "Generate" 按钮。
- 等待一段时间,图像就生成了。
Stable Diffusion对电脑配置有什么要求?
Stable Diffusion对电脑配置的要求主要集中在显卡上。显存越大越好,至少需要6GB,推荐8GB以上。CPU和内存相对来说要求不高,但也要保证基本的运行流畅。如果显存不够,可以尝试使用低显存模式或者优化设置,但速度会慢很多。我曾经用4GB显存的卡跑,那酸爽,简直是折磨。
Stable Diffusion提示词怎么写才能生成高质量图片?
提示词是Stable Diffusion生成高质量图片的关键。首先,要明确你想要什么,然后用清晰、具体的语言描述出来。可以尝试使用一些修饰词,比如 "photorealistic"、"8k"、"highly detailed" 等等。还可以参考一些提示词网站,学习别人的经验。另外,负面提示词也很重要,可以用来排除你不想要的东西,比如 "blurry"、"ugly"、"distorted" 等等。记住,多尝试、多调整,才能找到最适合你的提示词组合。
Stable Diffusion生成速度慢怎么办?
生成速度慢是很多人的痛点。除了硬件配置之外,还可以通过一些软件设置来优化。比如,降低生成图像的分辨率、减少迭代步数、使用更快的采样方法等等。还可以尝试使用一些优化过的Stable Diffusion版本,或者使用一些加速插件。另外,定期清理显卡驱动,也有助于提高生成速度。之前我更新了显卡驱动,速度直接提升了20%,简直是意外之喜。
Stable Diffusion生成的图片不满意如何改进?
生成图片不满意是很正常的,毕竟AI不是神。可以尝试调整提示词,增加或修改关键词。还可以使用图生图功能,上传一张图片作为参考,然后调整提示词和参数,让AI在原图的基础上进行修改。另外,也可以使用一些后期处理软件,对生成的图片进行润色。总之,不要灰心,多尝试,总能得到满意的结果。
Stable Diffusion有哪些常用的模型?
Stable Diffusion的模型有很多,不同的模型擅长生成不同风格的图像。比如,Realistic Vision擅长生成写实风格的图像,Anything V3擅长生成动漫风格的图像,Deliberate擅长生成人像。可以根据自己的需求选择合适的模型。另外,还可以使用LoRA模型,对模型进行微调,让其更符合自己的需求。我个人比较喜欢Realistic Vision,生成的图片非常逼真。










