首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

比肩Midjourney-v6!没有GPU也能跑可图Kolors

比肩Midjourney-v6,快手的文生图开源模型可图Kolors一发布,开源社区就炸开了锅。短短几天,可图在Github上收获2k Star,Huggingface模型下载热榜第一。

7月6日,快手宣布开源数十亿参数的文生图模型可图Kolors,可图支持中英文双语,支持长达256 token的上下文长度,最重要的是可以渲染中文,生成效果上实现了质的飞跃。

值得一提的是,可图采用了智谱的开源大模型ChatGLM3作为文本编码器,对中文的理解能力远超很多竞品。

国产文生图模型的强势崛起让人振奋,不过,由于硬件等客观条件限制,大多数跃跃欲试的用户却很难在本地部署并体验可图。

首先,可图模型完整下载有28G,下载模型、存放模型比较不方便;其次,可图采用的ChatGLM3代替了传统的CLIP模型做文本提示词嵌入,语义能力增强的同时显存消耗也从原来的几百MB变成十几G,这样,本地显存少于20G的用户,需要用有损量化或者损失推理速度的办法运行可图。

为了让用户无痛使用可图,硅基流动团队开源了BizyAir节点,这是一个专用于ComfyUI的节点仓库,首批节点就有可图Kolors

现在,没有显卡,不用下载模型,你也能用可图极速生成图片。

BizyAir还同步上线了一个小惊喜。考虑到写提示词的环节也很费劲,我们开源了SiliconCloud LLM节点,让GLM4、DeepSeek V2 Chat这类顶尖大语言模型接入ComfyUI,帮助你在工作流中生成、提炼提示词。

以DeepSeek V2 Chat为例,如果用它提炼提示词,需要500G左右的硬盘空间和8张A100以上的显卡才能部署这个模型,而SiliconCloud LLM节点直接提供了这个能力。

除了免去了用户搭配环境、模型下载与模型部署的门槛与烦恼。硅基流动还对Kolors节点提供基于专用的图片生成推理引擎OneDiff优化,节约图片生成时间与成本。

当然,你也可以一键无缝接入已有ComfyUI工作流,并可自由与本地节点做平替或组合。

那么,如何在ComfyUI中使用可图Kolors?

只需两大步。

一、安装BizyAir

二、快速开始

设置API密钥

使用BizyAir节点

当然,图生图也不在话下。

其他人都在看

开发生成式AI应用,减少响应时间

就用SiliconCloud

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OnEBrN0-jJi6A69NuUIrCgJQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券