Stable Diffusion 是一个由 Stability AI 开发的高分辨率图像合成项目,它使用潜在扩散模型。该项目包含从头开始训练的 Stable Diffusion 模型,并将不断更新新的检查点。
目前可用的模型有多种,包括 Stable unCLIP 2.1 和 Stable Diffusion 2.1 等。这些模型可以用于图像变化和混合操作,并且可以与其他模型(如 KARLO)结合使用。例如,Stable unCLIP 2.1 是一种基于 SD2.1-768 的稳定扩散微调模型,它允许进行图像变化和混合操作,并且由于其模块化,可以与其他模型结合使用。
此外,Stable Diffusion 项目还提供了多种分辨率的模型,包括 768x768 和 512x512 等。这些模型都基于相同数量的参数和架构,并在更少限制性的 LAION-5B 数据集上进行了微调。
在 GitHub 上,有许多开源的图像生成项目。其中一些与 Stable Diffusion 具有相似的功能和领域。例如,pytorch-CycleGAN-and-pix2pix 是一个用于图像到图像转换的项目,它使用生成对抗网络(GAN)进行图像处理。另一个例子是 OpenMMLab 的 Multimodal Advanced, Generative, and Intelligent Creation Toolbox ,它提供了用于文本到图像生成、图像/视频修复/增强等的扩散模型。
总之,Stable Diffusion 项目为高分辨率图像合成提供了一个强大而灵活的工具。它不断更新的模型和丰富的功能使其成为图像生成领域的一项重要贡献。您可以在 [GitHub](https://github.com/Stability-AI/StableDiffusion) 上查看更多信息。
web界面示例