前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >国内免费可用的stable diffusion

国内免费可用的stable diffusion

作者头像
石云升
发布2024-03-25 09:51:32
1K0
发布2024-03-25 09:51:32
举报
文章被收录于专栏:石云升石云升

工具地址:https://www.liblib.art/ 每天可免费生成大几十张高清无水印图。它的底层也是stable diffusion 并且操作方式基本都跟SD一致,主打的就是一个简单好上手。可以作为初学者的SD平替工具。

使用场景:
操作流程:

你可以按下图操作,先搜搜看有没有你想要的模型。

找一个你看着顺眼的,点击图片进入别人做的模型。在这里你需要注意一下,对方的模型支不支持商用。如果只是自己玩,那就没关系。用之前记得先点加入模型库。我选择的这个是LORA模型。一般用它的时候还要搭配一个主模型。

加入模型库之后,点击图片,可以看到一键生图。它会自动复制对方做图的模型以及提示词,主模型,生成图片的各种参数。

这里你主要看下有没有Other模型。这种属于不可以在线上运行的。你需要点进去看一下,上面写的是VAE采样模型,那么你在生成图片的时候VAE要选择跟它这一样。不过正常你不选,系统也会给你默认匹配最合适的。

这里要选中这个Lora模型,权重越大,效果越像Lora里的图片特征。

非会员一次最多生成3张。点开始生图就可以出图片了。平常周末不用排队,工作日算力紧张的时候需要排队,一般几分钟的样子。

这里的配置都属于SD简化版的,不妨碍大家用。我稍微解释一下里面的一些名词:

CheckPoint:就是图片的底层大模型。图片质量的好坏跟它有很大的关系。因为这是网页,所以你只要选择加入模型库就能用,不需要真的下载。

VAE:VAE(Variational Autoencoder)是一种能够学习如何将复杂数据(比如动物的图片)转换成简单、高度抽象的信息(在“潜在空间”中的点),然后再从这些简单的信息中重建出原始数据的神奇模型。一般初学者不用改。

CLIP:CLIP模型可以根据图片来理解和匹配相关的文字描述,或者根据文字描述来找到最匹配的图片。一般初学者不用改。

prompt:用于生成图像的文字输入,SD只支持英文输入,但这个工具自带了一个翻译功能,你可以先输入中文,再翻译成英文来生成图片。

negative prompt:这是生成图像的反向提示词,用于指定你不希望模型生成的内容。

Sampling method:不同的采样算法,对生成图片有不同的影响。

一般推荐DPM++ 2M Karras,设置 20~30 步;DPM++ SDE Karras,设置 10~15 步。建议大家多尝试,练的多了就能记住区别,光看没用。

Sampling steps:与采样算法配合使用,表示生成图像的步数。步数越大,需要等待的时间越长。通常 20-30 步就足够了。

Width & Height:生成图像的宽度和高度。

Number of images:每次生成的图像数。免费版最多一次3张。

CFG scale:这里表示 prompt 的影响程度。值越大,prompt 的影响就越大。

Seed:生成图像的随机种子,类似于抽奖的幸运种子,会影响生成的图像结果。

ControlNet:这个是做细节控制的。里面有很多参数。例如OpenPose 来控制图片姿势。

这个是我随便找了一个图片上传后生成的图,姿势还原度很高,效果还不错吧?

正常来说,如果我们有一些自己的图片数据,为了让生成的图片跟自己已有图片更像,会选择训练一个属于自己的Lora模型,这样你就能很灵活地用主模型和Lora配合了。想用Lora的时候就用,不想用的时候就不用。这个应用场景很多,比如你可以训练一个专属自己的模特。

好了,现在到了你去尝试的时候了。下次见

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-03-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 石云升 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 使用场景:
  • 操作流程:
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档