00:00
好的,那我们本期呢,分享一下关于s debu的一些啊,模型的一些分类啊,以及它版本的一个分类,呃,特别是关于我们SDSD叉LSD1.5啊,我们现在最新的版本是SD3啊,包括我们最新出的模型flax。那么针对于我们的模型生态,我们做一个呃,模型本期的一个知识分享。好的,那么大家好,我是本期的,呃,分享人,B站up主,AI绘画K。那么。呃,众所都知呢,前段时间我们分享了关于flax,哎,我们是最新的一个模型。呃,那我。可以把我们的flags放在这个地方,可以把它放稍微放大一点。好。在整个生态当中呢,有SD0.5 SD叉LSD叉l tober啊,ESD3和我们最新的flas啊,当然这个要flu要送1。
01:00
嗯,这个应该是最新的版本。那中间还有包括我们的一些其他的版本是吧,包括我们的lighting啊,Lighting的一个版本,还有这个LCM,当然这个属于是这个LAN或者是LA的一个。LCM属于多的一个范围,那我们也都把它放在这里,嗯。可以这么一说呢,就是我们根据这个表格来比较一下啊,整个的生态还是比较多的。那么如果说我们拿到去下载模型啊,去从网站上下载一个模型,不管是C单也好,或者是一些其他的网站,那我们下载一个模型啊,你能够在他的标签上可以看到他S1.5或者是SD叉L。但是如果说啊,你根据这个啊名称或者标签分布出来啊,它是什么样的模型的情况下啊,你比如说有我们的这个模型自由啊,其他的小伙伴啊,通过这个啊文件的方式分享给你,那么你怎么去判断他是SD1.5还是SD叉L啊,甚至是SD3,你当然现在来说SD除了官方的一些大模型,其他的模型。
02:12
流行度还不是那么广啊,还是以我们SD3的放放大模型为主,然后当然现在也支持了SD3的Laura。那么这么多的模型我们怎么去分辨啊,第一点啊,我们去怎么去分辨呢?第一点就是通过我们的名称。我们可以通过我们的名称来啊有效的去分辨一下它是什么样子的模型,假设啊一个模型它是以啊这个SD叉L的模型SD叉L命名为结尾的,那么它啊一定是SD叉L,除非你的命名是错误的啊,我们以SDL。结尾。或者是包含啊,或者是包含的,那么它一定是SD叉L的模型,那么SD叉L也包含了SD叉L通ber SD叉l let SD叉L的LCM模型啊,那么它的大模型以及罗A,我们都可以通过这个名称啊,去区分一下它是什么样的模型。
03:07
那么如果说啊,你把这个模型啊,通常情况下如何两个模型是一模一样的,那么他在也没有去用SDL的一个密文结尾,那么我们去怎么分现分辨去它是什么样的模型呢?可以通过模型的一个大小,嗯,模型的一个大小。首先区分一下大模型和laa啊,大模型和lara啊,然后其次我们再区分一下这个S力的1.5啊,还有一个VS嘛,嗯。SDT是吧?啊,我们怎么去分辨,那我们可以拿到这个模型之后呢,通过它的一个模型大小啊,我们通常情况下,嗯,通常情况下啊,一个大模型啊,大概是一一个G啊1g。
04:00
开始啊,1D开始,嗯,最小,也就是说一最小的大模型可能在啊,1D加啊,1D加啊,当然这个不是绝对的,而是说通常情况下90%的这个情况下,因为一个大模型它涵盖的这个范围呀,包括它的分化性比较强啊,包含了很多的啊,很多的一个素材集,所以说大模型一般都是在一级加。啊,90%的情况下,好,那么罗A啊laa的情况呢,我们也分了,其实也如果说细分的话,罗A也是分。SD的lor啊和SD1.5的一个lor,那么通常情况下都是在。1级以下的。啊,包款包括这SD叉的啊,然后通常1.5的Laura是在啊,144啊,然后278啊,然后这个一兆啊,都是这个这个大小,或者是现在还有几十兆的一个柔软,那么你可以判断出这就是SD1.5的柔lor啊,SD1.5的lor。
05:04
那I叉L的Laura呢?啊,这个Laura我们可以把Laura可以再细分一下啊,啊,我们为了方便,我们其实可以。做一个思维导图都可以啊,我们先把它填到这个表格里面。嗯,I child I child的R,嗯。Hastaed.通常情况下SD叉l laa啊都在呃,700个啊,700个以上啊以上或者是说向下吧啊,因为这个还是比较大的,还是比较大的,那我们怎么去举个例子啊,然后看一下啊,目前是AI绘画题,正在分享。那么Laura啊,我们的Laura啊,拿到我们的SD叉L啊SD叉L,然后我们可以看一下它的一个自媒体信息啊,自媒体信息点一下设置,还有的看一下它的大小。呃,通常情况你看IC叉L的一个laa啊,它是呃连376的啊,那我们再随便找一个这个啊,随便找一个啊,1.5的1.5的啊,再看一下1.5的啊,只有19兆啊,这个是非常小的,但是我们再换一个。
06:14
啊,这144的是吧?啊,那么它跟我们的一百四十四二百七十八啊,这个大小呢,它一差大概在700左右。啊,你可以通过文件的大小啊,文件的大小第一个就是名称儿啊,第2个就是文件的大小,嗯。可以分辨啊,大模型啊,以及叉L和叉的这个罗尔都可以去这么去分辨,那么来请October啊,这个也是一样的,第一直观的,如果说如果说这个东西它没有改变它的名称,你仍然可以用tober结尾,或者是含有,或者是来ing,还有那个来的一个名称可以区分出来SL。啊,他是SD叉L还是lighting的一个模型。其实LCM的话,它不应该算作大模型,或者一个区分在范围内,它严格来说的话,LCM是一个laa啊,LCM是一个laa,那么它是一个单词的一个缩写,那么目前来说,嗯,它是能够加快了出图的一个速度啊,当然呃,现在论速度的话啊,论速度的话,你看SD October, 它也提升了这个出图的速度。
07:25
那么sb lighting啊。甚至可以通过这个。来请可以通过这个一步啊一步。4步8步。这种就是步数,通过我们的这个steps步数啊,通过我们的这个迭代步数,7步左右啊,一步甚至4步,甚至8步,就是我们有我们s sel这个字节图片的SEL来ing是吧,那么它是很快很快的啊,它是很快的,那这样来说,嗯,如果说论速度的情况下,应该是来挺最快的,还有CM是次之,那么SD叉otober也是啊,往后排一排。
08:03
这样从出图速度可以这么去区分啊,那么埃斯利3艾斯第三啊,艾斯利3的它的大模型啊,它的大模型呃。基础的模型要达到。啊,12个G,嗯,12个G,那你可以看到,可以这么去认为吧,随着它的版本的增加啊,SD1.5SD叉L啊SLCMS叉l tober, 那么它越来越往后去迭代,它的模型现在是越来越大的啊,包括我们最新的这个。啊,我们往期也有分享过我们Fla的一个啊视频,那么Fla它的一个,呃,单个模型的大小呢,是23个G啊,也就说它的模型确实是越来越大。啊,这样的显存也是越来越大啊。这就是我们可以区分的主要的形的一个模型啊,通过大模型Laura啊这么去区分,那么还有一些我们不太常见的,比如说我们这个外挂V。
09:08
首先我们要知道VAE是什么对吧,VE是做什么用的,这个呢啊,在我们的这个往期的视频有分享过啊,你可以理解为我们今今天就是简单去了解一下,那么这个微E呢,首先它是啊,可有可无的啊,可有可无的,也就是说你可以选择。无啊,None什么都不选,或者是凹two自动的去选择都是可以的,但是如果你选择了,一定要跟你的多模型,就是你的大模型跟你的这个外挂V1的环境一定是一致的。这个我们往期呢,也有提到过,那么这个vy VE是一个,还有我们的这个想象方法。这个采样方法呢,不能说是绝对的,比如说我们SD叉L和SD1.5或者是SD3。还有一些采样方法,是啊,必须要在那个环境下使用,但是啊,我们举个例子。
10:04
我们举个例子,爱4D3,如果你选用采采用方法,想在外表UI当中去使用。那么官方推荐的这个啊,推荐的这个。推荐的这个采方法是I如啊,包括我们flas啊,Flas它有自己的这个啊,它在工作中,目前呢,我们就是在web for机Y啊可以直接使用外,BY呢,目前应该是没有可以直接使用这个flax的啊,就是大家可以去看一下官方的资料有没有支持。因为我们一在我们的这个外BUI的这个版本更新里面啊,它是没有提到过这个更新那样的啊,可能会有开发版本,可能会有这个开发版,会有这个知识啊,然后看可以看一下。啊,目前是啊没有,目前是没有,可以看,以官方的为准。好,那我们可以通过这个啊,刚才讲到的这个外挂VEE啊,会有这个采样方法,还有个点啊,大家可能没有注意到,就是这里面有个高清修复,实际上高清修复它有自己的一个啊模型有这么多N多个模型,放大模型,对吧,以我们stands out toup, 或者是200K啊这个。
11:16
放大效果都是非常好的啊,都是非常好的。那这个外挂vee要提,重点要提一下,就是VAE,好在我们的这个你看外挂vee有N个是吧。在我们的那个型和法当中呢,V也要跟你的这个整体所有的这个模型生态要一致,那么你如果如果选择的是S1.5的模型,那么你的VE也是SD点5的么?你的模型在SD叉的,那么等于你的VE可以选择SD的,或者是不选啊就选择无。还有一点啊,我们还有一个叫做controlled啊,这个是大家比较常见或者是必用的一个插件或者模型,那在这个模型当中呢,跟我们的YYVE是一样的啊,它也分为两个啊,我们的con也分为这个SD版本和SD child的版本啊,当然现在不是所有的SD叉的模型都有con ne.
12:15
啊,Contra Internet的模型都不太不是那么的全,但是大部分的一个应用场景都是够用的啊,都是够用的,那么除了他这个参数量,我们可以暂时不用去关心啊,只关心一下我们的这个模型生态去怎么去用,怎么的区分。那么怎么去区分它的一个SD叉L和就是一个control,一个模型,它是1.5的模型还是SD叉L呢?啊,同样也是通过这个。包含叉L的模型,那么它就是SD叉L的,如果不包含,可以认为它是,诶,比如说像这种它甚至帮你标识的,它是SD1SD1.5的一个模型啊,SD1.5的模型。那如果其他的一些SSE叉L它会啊指出来它是SSE叉L的一个模型,好吧,那么这一个也是跟我们的VE,刚才提到的VE是一定是一致的,就是你使用的啊,你使用的这个大模型和你的这个VE一及controlac呢,这个生态啊,一定要是一致的,一定要是一致的。
13:14
那么flax啊,这个Fla大家可以看一下往期的这个内容啊,但是呃,Flax它出图的效果是真的好,当然它的模型也是真的大是吧,23g的一个模型,那么它出图的速度啊,是相对来说是比较慢的,那可以说是4090都降伏不了的一个大模型啊,实在是很慢的一个模型。那如果说你想要使用这个flas,嗯,官方给出的是11个G,但是实际测试下来参他在出图过程中。我目前是24g的一个啊显卡,那么它出的速度也是比较慢的啊,比较慢的,那么整个过程可能出一张图片要五分钟左右啊,要5分钟左右,那么他的一个过往的姿态,可以在以往的模型,以往的这个视频当中可以去看到,怎么去如何去使用。
14:09
嗯,那么我们再看一下参数量的啊,那么S1.5它是参数量是70例啊,并不是说呃,模型的参数量越大越好,当然啊,还是就是是吧,大一出奇迹啊,越大呢,标明他的一个训练素材级越多是吧。那还是说能够啊,能够表现的形式越来越好,因为毕竟模型的优化,或者是说进化,或者是在升级,他还是啊,模型的这个这个大小还是在一点一点的增加,比如说我们的IC1.5大概是30亿的一个存储量。SD叉L是由base+re finder一共加起来是101的一个词数面,好,我们把这个往这边拉一拉。那么SD叉lctober啊,它可能还有我们没有提到的啊,包括我们的一个呃T包是吧,KK它是一个40+20+2,它一个级联模型,嗯,咱们就可以认为呃,就是以基础的41,还有一个额外的级联博模型B和级联模型C。
15:14
啊,这样去来关联。那么SD3呢,目前它是巨大的,是有一个80啊。80亿的啊,80亿的一个参数量,然后为跟我们的这个啊flux啊f flux是一个121啊。可以说是模型越来越大,参数量也越来越高,但是它的表现呢,其实也越来越好啊,确实也越越来越好,那么可以看出,呃,可能随着后面它参数量的一个增加,模型越来越大啊,模型越来越大,可能有可能会达到,因为你想120亿的一个参数啊,可能后来或者说以后。啊,整个模型要达到,甚至比一些自然语言的一些AI人工智能的一个模型都要大,还要大啊,这是可能是一个趋势,但我觉得为了就是普通的玩家能够继续去使用,可能他的模型还是要小一点啊,我们可能需要就是速度要快,然后模型同时要速度要快一点,然后模型要可能小一点,它的出入数量的速度呢,也要快一点啊,这是整个的生态的一个希望。
16:28
那么关于往期的一些啊,私信小伙伴咨讯的一些内容,就是关于如何去区分SD和SD的差的模型啊,以及vee采用方法啊,放大方法,这个放大算法的话是可以在两个生态当中你都可以去使用。啊,这个a detail的话,这个目前测试下来也是可以在啊,可以在SD和SD两个生态环境都可以去使用,但是安酶的diff啊,大家如果有这个场景啊,这个是它需要去对应的啊,需要去对应的,你看S它目前所有的生态里面都没有带有SD叉L。
17:08
那么他在康复UI当中去使用,可以是有对应的ICD叉L的版本,但是在web UI当中呢,目前放出的模型就只有这么多,所以说它只能在SD,就是SD这个1.5的模型中去使用,当然官方作者指出它可以在SD叉L当中去使用,但是效果呢,不如1.5的这个效果好。啊,那我们就尽量遵循作者的一个说明。我们的control net模型刚才了解下来啊,也是一样的,也是有自己对应的生态。那么右边的那个LOA模型,Lor模型也是有区分的,SD1.5。以及SD叉的一个lar啊,包含我们最新的这个SD3,它也推出了SD3的lar,所以说所有的啊,所有的这个生态都是要一一对应的啊,这是一个最重要的一个点。
18:01
好,那么这么多的一个生态啊,怎么大家去怎么去下,或者是怎么去用,那么往期的视频,或者本期视频,或者是以后的直播呢,大家可以在直播间中直接去问啊,直接去,那么后期呢,也会继续去分享,那么这就是本期主要分享的一个主要内容。好的,那么有什么问题可以在评论区留言,可以去啊,关注我们的公众号或者是B站啊,然后我们在百科全书当中有大家给大家介绍了一个如何去安装使用啊,我们有一个小白入门手册。啊,这里稍微占一点点慢啊在这个位置啊,在这个小白我们手册这个,如果大家有什么安装问题,这里面有很多的问题都给大家去提到了是吧?啊然后大家可以去仔细看一看,这个是直接点开就可以用呢,这个以看的有什么问题素查呀,啊这个基本的一些软件要求,硬件要求。啊,这个如何去安装啊,什么问模型都放在什么位置,都是标识的很很清楚的啊。
19:06
各个文件存放的一个位置啊,都是标识的很清楚的,大家可以去直接那个查看一下就可以了。好的,那么这就是本期的分享的主要内容啊,有什么问题大家可以私信。
我来说两句