在本地训练您自己的Stable Diffusion稳定扩散模型 - 无需代码

我已经研究稳定扩散几个星期了。从基础开始,在 HuggingFace 上运行基本模型,测试不同的提示。然后我开始阅读提示和技巧,加入几个 Discord 服务器,然后亲自动手训练和微调我自己的模型。现在我有了一个用我自己的脸制作的模型,我可以创建自定义头像等等。这很有趣。

上周我和一位同事交谈,他告诉我他对生成人工智能非常感兴趣,但不幸的是缺乏训练自定义模型所需的技术知识,所以只是在基本模型上运行推理。我突然想到——如果我做一些东西给他玩,根本不需要代码怎么办?比如“嘿伙计,只需运行这个脚本 - 它会根据您的输入图像创建您想要的模型”。

听起来是一个有趣的项目,所以我开始研究如何去做。而且,好吧,我迟到了。事实上,我晚了几个月。我想要构建的一切都已经存在,由真正聪明的人制造,他们在人工智能接触和经验方面比我领先光年。因此,我谦虚地忘记了我的项目,而是给我的朋友写了一个小教程,解释如何训练你的模型。

这是扩展版本。

要求

虽然这应该适用于任何操作系统,但由于我们要使用的所有存储库和 Web UI 都支持 Linux、Windows 和 Mac,因此我仅使用我自己和我朋友的设置对此进行了测试:

  • Windows 10
  • GPU 至少具有 6-7GB VRAM - 更准确地说,这与 NVIDIA GeForce RTX 3060 或 RTX 3060 Ti 配合使用效果良好。这还不足以运行纯粹的 Dreambooth,但我们将使用 LoRA,所以没关系 - 如果您还不明白这一点,请不要担心,我们稍后会回来。我相信某些功能只能在 CPU 上运行,但我还没有测试过。
    除此之外,您还需要安装两件事&

猜你喜欢

转载自blog.csdn.net/iCloudEnd/article/details/131729415
今日推荐