https://gitcode.net/rubble7343/sd-webui-extensions/raw/master/index.json
在人工智能盛行的当下,各类大模型如雨后春笋般争先恐后地破土而出,AI绘画作为其中极其重要的一员也不停地向我们展示出它的强大能力。本文是笔者在做证件照时发现的一款stable-diffusion webui的插件,极其好用,向大家推荐一下。从本篇开始,笔者会陆续推出stable-diffusion和Midjourney相关的内容梳理了,后续会推出一系列的stable-diffusion webui的插件教程和讲解,敬请期待。
前提条件 已安装CUDA 已安装git 已安装Anaconda 推荐平台:AutoDL 直接安装Anaconda不要指望Linux自带的Python。 创建SD需要的环境 # 创建 conda create -n webui python=3.10.6 # 进入 conda activate webui 下载SD模型 git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git # 进入文件夹 cd stable-diff
前两天在某公众号的软文刷到了AI绘画领域最新的ChilloutMix模型。大概是下面这张图的效果:
写在前面,之前我介绍过Aria2的用法,把介绍链接附上:https://aria2.github.io/ 说说三个程序的功能: Aria2作为下载服务器、DarkHttpd作为WebUI的底层支持、Aria2WebUI作为下载管理器。 看不懂没关系,简单说就是个下载器,我们切入正题: 1.安装Aria2到服务器: 在这里感谢逗比的脚本:doub.io/shell-jc4 本人仅仅作为后续功能开发,安装等操作方法都差不多,如果不想使用我修改过的脚本,使用此一键脚本即可。 本人修改脚本使用方法: wget
在使用stablediffusion进行绘画时,插件会自动记录输入的所有提示词,方便随时查看和回顾。
Kaggle是一个针对数据科学和人工智能的在线社交平台和数据科学竞赛平台,拥有数以百万计的数据科学爱好者、数据科学家、工程师和数据科学教育者。官网地址是https://www.kaggle.com/ 。kaggle平台给每个用户提供30小时/每周的GPU使用时间,本篇文章将利用kaggle云平台搭建stablediffusion绘图工具,免费白嫖算力。前提是需要特殊的网络设置,俗称魔法。
从今年开始,人们对大型语言模型 (LLM) 及其在 GPU 基础设施上的部署的兴趣显着增加。这种不断增长的热情是由人工智能和机器学习的进步推动的,这需要 GPU 能够有效提供大量的计算能力。GPU 领先制造商 Nvidia 的股价也因这一趋势而飙升。同样诞生了大量的大模型,对于这些模型的部署和管理也变得越来越重要,在这方面 Ollama 和 OpenUI 是一个不错的选择。
本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并安装Open WebUI结合cpolar内网穿透软件,实现在公网环境也能访问你在本地内网搭建的llama2、千文qwen等大语言模型运行环境。
本篇文章介绍在window系统下,安装Ollama并且安装gemma(谷歌大模型)、llama2(脸书大模型)、qwen(阿里大模型)等大模型的教程,实现类似免费ChatGPT的web界面
Stable Diffusion的插件主要是用来丰富SD的一些功能,例如C站助手,提示词助手,图片信息助手等插件都是为了增强SD的实用性。
前几天我发布了一个视频:《本地运行大模型,配合笔记应用王者 Obsidian 做知识管理》
Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer 架构。调整后的版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF),以符合人类对有用性和安全性的偏好。
好的,我们将重点讨论如何使用腾讯云的高性能应用服务 HAI 来部署 Stable Diffusion 的 WebUI 或 ComfyUI,并具体实现几种 AI 绘画和多媒体处理的实战应用,如使用 animatediff 生成舞蹈视频和使用 controlnet 进行老照片修复。以下是调整后的文章内容。
注:我这里用的腾讯云的tcr的私有仓库同步的siutin/stable-diffusion-webui-docker镜像:
Stable Diffusion (简称 SD) 是一款开源免费的以文生图的 AI 扩散模型,它和付费的 Midjourney 被人称为当下最好用的 AI 绘画工具。你在网上看到的绝大多数优秀 AI 图片作品,基本都是出自它俩之手。其中 Midjourney 是在线服务 (需绑信用卡付费),而 Stable Diffusion 则完全免费,可在自己的本地电脑上安装离线使用 (也能租用 VPS 云服务器部署在线使用)。
之前写了一篇在Windows上搭建Stable Diffusion WebUI的文章,这次就讲讲在Mac上搭建Stable Diffusion WebUI的方法。
本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并安装Open WebUI结合cpolar内网穿透软件,实现在公网环境也能访问你在本地内网搭建的大语言模型运行环境。
Open WebUI 是一种基于 Web 的用户界面,用于管理和操作各种本地和云端的人工智能模型。它提供了一个直观的图形化界面,使用户可以方便地加载、配置、运行和监控各种 AI 模型,而无需编写代码或使用命令行界面。
在工作中我们一般使用IntelliJ IDEA开发工具进行代码开发,为了能方便快速的调试Flink和了解Flink程序的运行情况,我们希望本地开发工具中运行Flink时能查看到WebUI,这就可以在编写Flink程序时开启本地WebUI。
注:建议安装openbmc维护的qemu或者下载openbmc官方的qemu-system-arm,直接apt安装的qemu启动会很卡,并且会有重启看门狗等问题。
安装方法 方法1、复制地址到你的webui中 从网站安装后应用并重启 https://github.com/thisjam/sd-webui-oldsix-prompt.git 方法2、 如果webui中无法安装的可以选择手动安装,点击页面上的code->DownloadZip 解压以后放在你的sd文件夹下的extensions文件夹后应用并重启
Stable Diffusion 官网给出了mac系统的安装步骤,中间遇到些问题,不过整体比较顺利。官网安装说明:https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon#downloading-stable-diffusion-models
对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的懦弱回归,是随波逐流,是对内心的恐惧 ——赫尔曼·黑塞《德米安》
图像风格迁移(Style Transfer)是一种计算机视觉技术,旨在将一幅图像的风格应用到另一幅图像上,从而生成一幅新图像,该新图像结合了两幅原始图像的特点,目的是达到一种风格化叠加的效果,本次我们使用Stable-Diffusion结合ControlNet来实现图像风格迁移效果。
作为一款跨平台的下载软件,Aria2 以其优秀的性能,良好的多线程支持以及多协议支持的特性,在 Linux 平台下受到了广泛好评。不过他与 Transmission 不同,Aria2 本身只是一款命令行下载工具,并不自带 WebUI ,这给我们的使用带来了极大的不便。下面我们便以 Debian 7 系统为例,介绍 Aria2+WebUI 的安装及配置方法。
支持使用SDXL模型和一定的选项直接生成高清大图,不再需要上传模板,需要16GB显存
在webui.py文件77行左右如下代码前加入cmd_opts.listen = True,可以让外部地址访问服务。
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
通过本机nginx反向代理stable-diffusion-webui,支持stable-diffusion-webui不支持的功能(比如OPTIONS请求和跨域问题),提升系统健壮性。
本文主要是介绍在腾讯云CVM的中国大陆地区服务器中搭建stable-diffusion-webui(https://github.com/AUTOMATIC1111/stable-diffusion-webui)环境。为什么在中国大陆地区服务器需要另外一份教程了,就是【慢】。各种依赖,下载太慢了。
PyTorch 1.12.1 CUDA 11.8 测试显卡为RTX 3090,因兼容性原因,暂不推荐4090(实测在训练Textual Inversion时速度逊于3090)
该项目是一个跨平台的 ChatGPT/Gemini UI(Web/PWA/Linux/Win/MacOS),提供一键部署私人 ChatGPT 应用,支持 GPT3、GPT4 和 Gemini Pro 模型。它具有快速部署、体积小巧的客户端、Markdown 支持、响应式设计等特点。
Stable Diffusion 是热门的文本到图像的生成扩散模型,本文介绍了如何准备其 WebUI 环境。
Stable Diffusion WebUI 是允许用户自行安装插件的,插件的种类有很多,有将页面翻译成中文的插件,也有提示词补全插件,也有精细控制出图的插件。
AI绘画 关于 AI 绘画最近有多火,既然你有缘能看到这篇文章,那么相信也不需要我过多赘述了吧? 随着 AI 绘画技术的发展,最新感到压力山大的应该属于那些设计师了吧,AI 不仅作图效率其高,而且画面超级逼真,甚至在很多细节处理方面都已经超过专业设计师的级别,是不是瞬间感觉自己的饭碗保不住了。 虽然很多人听说了这项技术,但是对于部署还是一知半解,到现在也只是只闻其声不见其物。这篇文章主要就是教大家如何部署最新版本的 Stable Diffusion 绘画工具。 图片 本地环境要求 在下载 AI 绘画工具前
2022年下半年开始,从chatgpt的火爆出圈到今天各种好玩的模型、工具应用层出不穷,迭代更新速度更是日新月异,让普通用户也直观的感受到了AI技术的强大。
https://www.testclass.cn/katalon_studio_image_discern.html
在本次 workshop 中,我们将在前一篇设置好的 K3S/GPU 集群、安装 NVIDIA 驱动和插件的基础上,演示如何部署一个基于 Ollama 的 Open WebUI。
在开发数字孪生应用程序的时候,除了三维场景展示之外,也需要开发丰富和酷炫的2D页面。 使用UE4的UMG开发图表显得比较笨拙。 而通过Web插件允许开发者创建丰富的基于Web HTML5的用户界面,它由内置在UE4中的web浏览器提供支持,包括对Windows、Mac、Linux、Android和iOS的支持。 基于这种插件技术,普通的前端开发人员也可以开发UE4界面上丰富的2d页面效果。
本文介绍如何在 Windows 安装 Stable Diffusion WebUI,不需要懂代码,只要跟着本文一步步操作就能在你电脑用AI绘画了。
今天分享的内容是 玩转 AIGC「2024」 系列文档中的 Ubuntu 24.04 LTS 安装配置 Stable Diffusion WebUI。
由于众所周知的原因,在国内机房下载python依赖包、访问github极慢的,而stable-diffusion-webui依赖了这些,导致在国内机房下载安装stable-diffusion-webui速度极慢。我之前在 《基于腾讯云CVM(国内)搭建stable-diffusion-webui环境 三》一文中介绍了一种在国内搭建stable-diffusion-webui环境的办法。这种办法步骤较多,比较繁琐,有没有其他简单的办法呢?
最近要用到 AI 绘画,所以研究了下目前市面上的 AI 绘画工具,真可谓是琳琅满目,但主流的还是 Stable diffusion 和 Midjourney 两大阵营。
前面一篇WebUI的文章讲述的WebUI插件的下载,开启,在UE中创建,加载网页等。 本文继续讲述通过WebUI,UE和网页实现双向通信的实现思路。
领取专属 10元无门槛券
手把手带您无忧上云