前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >自学微信小程序开发两小时,我将hai的AI绘画接入到了小程序

自学微信小程序开发两小时,我将hai的AI绘画接入到了小程序

原创
作者头像
叫我阿柒啊
修改2024-03-27 09:23:41
3706
修改2024-03-27 09:23:41
举报

前言

感觉已经进入全面AIGC的时代了,从刚开始的ChatGPT的生成文本,到GPT-4文本到图片的发展,深刻感受到了技术的日新月异。但是GPT-4一直是付费模式,我才开始接触stable diffusion,在自己的电脑上学习AI绘画。

AI绘画的文生图还没研究透彻呢,文生视频sora又来了。对于我来说,学习的速度远远追不上技术的发展,所以索性就沉下心来,深入地学习一下AI绘画。

如今阿里云、腾讯云等很多厂商,都提供了AI绘画地服务能力。通过购买部署AI绘画服务的实例,让Stable Diffusion实现云化。今天就来研究一下腾讯云AI绘画服务hai。

于是,学了一下午的微信小程序开发(有前端开发基础),实现了将hai服务接入到微信小程序。

操作动图演示:

HAI

hai是腾讯云的高性能应用服务(Hyper Application Inventor),在腾讯云的hai服务页面,春季活动1元可以10元抵扣券。

10元可以购买8小时(1.2元/时)的GPU基础套餐。

在实例中预装了stable diffusion的webui和comfyui,我个人还是比较喜欢webui,喜欢工作流的可以选择后者。

然后就是1元下单购买10元抵扣券。

创建实例,使用抵扣券开通8小时体验时间。

购买之后创建实例,分配公网IP。

这样,实例的创建就完成了,要注意的是:每次重启实例公网IP都会重新分配。点击右侧的WebUI就可以进入Stable Diffusion的webui,体验图生图和文生图的功能。

至此,实例创建完成。我们想要在微信小程序中实现文生图的功能,那么就要调用hai的api,所以必须开启hai的api功能。

开放API

根据Hai操作文档,首先开启Stable diffusion服务的api支持。通过实例页面右侧的JupyterLab进入Terminal,执行下面命令监听服务。

代码语言:bash
复制
cd stable-diffusion-webui
python launch.py --nowebui --xformers --opt-split-attention  --listen --port 7862

执行命令之后,成功监听7862端口。。

在实例页面可以看到公网IP,通过http://公网IP:7862/docs可以查看api文档。

我们小程序开发开发的文生图功能,主要是调用txt2img的api,查看接口参数。

然后添加安全组。

至此,关于hai服务的部分已经全部准备完成,接下来就是微信小程序的设计。

微信小程序

我们根据HAI提供的api的请求参数,参考stable diffusion web ui来实现一个简易版的微信小程序。

设计

先看hai文档中api接口的参数。

在上面的参数中,有一些可以设置为固定值,所以我们只挑选一些主要的参数,放到小程序页面的设计中,例如:prompt、negative_prompt、steps、seed(其实也可以不用),sampler_index。batch_size我们默认就生成一张就行了。

对于微信小程序的开发,我是基于uni-app,使用vue进行的开发。UI没有使用市面上基于uni-app封装的组件,我使用的是uni-app提供的原生组件。

开发

在HBuilderX和微信开发者工具中完成开发工作。先实现功能,再优化UI样式,初版的设计如下:

1. prompt

使用textarea组件实现prompt文本框。

代码语言:html
复制
<view class="uni-title uni-common-pl">Text Prompt</view>
<view class="uni-textarea">
    <textarea v-model="prompt" placeholder-class='placeholder' placeholder="请输入提示词" />
</view>
<view class="uni-title uni-common-pl">Text Prompt</view>
<view class="uni-textarea">
    <textarea v-model="negative_prompt" placeholder-class='placeholder' placeholder="请输入反向提示词" />
</view>

使用v-model与textarea的value实现双向绑定。

代码语言:JavaScript
复制
import {ref} from 'vue'
const prompt = ref('')
const negative_prompt = ref('')

prompt和negative_prompt的初始值都设置为空,两个变量会随着textarea输入的值而改变,这样就可以获取用户输入的参数。

2. step

step就是Sampling steps(采样步长),就是在reverse diffusion中,从噪声图降噪成正常图片的步数,通常使用20 - 30,这里使用了滑动选择器slider组件来实现。

代码语言:html
复制
<view class="uni-title">step</view>
<view>
    <slider class="slider" value="20" activeColor='#465CFF' block-color="#8A6DE9" 
      block-size="20" @change="stepChange" min="10" max="50" show-value />
</view>

activeColor用来设置滑块左侧已选择部分的线条颜色,右侧默认为白色。block-colorblock-size分别设置滑动块的颜色和大小。

change属性绑定回调函数stepChange,当滑动组件改变时就会触发。

代码语言:JavaScript
复制
const step = ref(20)

const stepChange = function(event){
    step.value = event.detail.value
}

定义step默认值为20,在stepChange获取最新值,我个人比较喜欢设置为30。

3. scale

scale是promot的引导系数,用来控制模型遵循你输入的prompt有多少,用1-30表示。1表示完全忽略你的提示,3表示更有创造力,7为推荐值,表示在自由和遵从之前平衡,15更加遵循提示,30完全遵循提示。

所以说scale使用默认7就行了,但是这里还是尊重选择,使用了滑动选择器slider组件来实现。

代码语言:html
复制
<view class="uni-title">scale</view>
<view>
    <slider value="7" activeColor='#465CFF' block-color="#8A6DE9" block-size="20" @change="scaleChange" min="1"
        max="30" show-value />
</view>

同样这里change绑定回调函数scaleChange

代码语言:JavaScript
复制
const scale = ref(7)
const scaleChange = function(event){
    scale.value = event.detail.value
}

定义scale默认值为7,这里不建议修改,在stepChange获取最新值。

4. seed

seed就是随机数种子,在提示词以及其他设置相同时,seed相同才能生成一样的图片。

代码语言:html
复制
<view class="uni-title">seed</view>
<input class="uni-input" v-model="seed">

同样在input组件中使用v-model实现双向绑定seed

代码语言:JavaScript
复制
const seed = ref(-1)

seed默认值为-1。

5. sampler

采样器使用radio组件实现,遍历samplerItem进行渲染。

代码语言:html
复制
<view class="uni-title">sampler</view>
<view class="sampler">
    <radio-group v-for="(item, index) in samplerItem" :key="item.name" @change="samplerChange">
        <view class="sampler-radio">
            <radio :value="item.name" :checked="item.name == sampler" />
            <span>{{ item.name }}</span>
        </view>
    </radio-group>
</view>

定义samplerItem,定义了6个Item,这里只写了2个。

代码语言:javascript
复制
const samplerItem = reactive([{
    "index": 0,
    "name": "Euler",
  },
  {
    "index": 1,
    "name": "LMS",
  },
])

name是渲染radio的名称,index是下标。默认radio都是垂直分布的,我想让6个radio分成两行,所以就需要使用flex分布。

代码语言:css
复制
.sampler {
    display: flex;
    flex: 0 0 auto;
    flex-wrap: wrap;
    width: 100%;
    justify-content: center;

}

.sampler-radio {
    width: 33vw;
}

同时flex: 0 0 auto属性让弹性元素不发生伸缩,每个radio占用33%的宽度,一行就实现了3个radio的分布。flex-wrap允许换行,所以就将6个radio分布在了两行。

在使用radio你会发现两个问题:

  1. radio一旦选中,是没办法点击取消选中的
  2. 可以多选,但是我们的需求只能单选

为了解决这两个问题,需要定义checked属性来决定是否选中。定义sampler变量用来与当前radio比较。默认是0,所以在第一次进入或刷新小程序时,默认选中第一个radio。

定义radio-group的change事件,当点击选中新的radio时就会触发,这时修改sampler为最新选中的radio,其他radio的checke属性就为false,就取消了选中。

代码语言:JavaScript
复制
const sampler = ref('Euler')

const samplerChange = function(event) {
  sampler.value = event.detail.value
}

效果如下:

同时,sampler也作为请求参数来请求接口。

6.生成按钮

然后就是生成图片按钮,点击按钮就发起hai接口请求。

代码语言:html
复制
<view>
  <button type="primary" @click="generatePic" :loading="isLoading">生成图片</button>
</view>

这里绑定了点击事件generatePic发起请求,接着看如何实现请求函数。

代码语言:JavaScript
复制
const isPicShow = ref(false)
const isLoading = ref(false)
const picBase64 = ref('')

const generatePic = function() {
	isLoading.value = true
    uni.request({
        url: 'http://公网IP:7862/sdapi/v1/txt2img',
        method: 'POST', 
        data: {
            "denoising_strength": 0,
            "prompt": prompt.value,
            "negative_prompt": negative_prompt.value,
            "seed": seed.value,
            "batch_size": 1,
            "n_iter": 1,
            "steps": step.value,
            "cfg_scale": 7,
            "width": 512,
            "height": 512,
            "restore_faces": false,
            "tiling": false,
            "sampler_index": sampler.value
        },
        success: (res) => {
            picBase64.value = `data:image/png;base64,${res.data['images'][0]}`
            isPicShow.value = true
            isLoading.value = true
        }
    });
}

使用uni-app的request接口发起请求,请求参数一部分是通过我们定义的组件输入获取的,一部分是固定的。在我们发起请求成功之后,hai服务就会返回一个数组,base64格式的图片就包含在数组之中,如图所示:

我们在success回调函数中对自定义的picBase64isLoadingisPicShow变量做处理。

picBase64用于接收接口获取的base64格式的图片,当img组件的src使用base64而非路径时,需要在图片base64格式之前加上前缀:data:image/png;base64,

isLoading的作用是什么呢? 因为Stable diffusion生成图片是需要时间的,所以在点击按钮之后等待的过程中,给人的感觉是微信小程序卡了。所以就会不停地点击生成按钮,后台就会一直在生成图片。

上图为后台日志,我们可以看到来自同一个IP的多个文生图任务在运行,就导致了资源的浪费。button组件的loading属性就是,当为true的时候是就会一直处于loading动画,不可点击,在generatePic函数发起请求时,设置为true处于加载不可点击状态。当请求完成后,设置为false。

7. image组件

isPicShow用来展示图片组件,当请求完成之后才会显示图片组件。所以在生成按钮的下方,要定义一个图片组件。

代码语言:html
复制
<view v-if="isPicShow">
    <image class="controls-play img" :src="picBase64" @longpress="longpress"></image>
</view>
保存图片

可以看到picBase64绑定在img的src属性上,父组件view用isPicShow来控制是否显示。接着我想长按图片就可以保存到本地相册,所以在image组件上绑定了长按事件longpress

代码语言:JavaScript
复制
const longpress = function() {
  uni.showActionSheet({
      itemList: ['保存图片'],
      success: (res) => {
          if (res.tapIndex === 0) {
              saveBase64ImageToAlbum(picBase64.value);
          }
      }
  });
}

使用uni-app的showActionSheet从底部弹出输出选项框,选择保存图片就可以调用saveBase64ImageToAlbum函数,将base64图片保存到相册中。

代码语言:JavaScript
复制
function base64ToTempFilePath(base64Data) {
      return new Promise((resolve, reject) => {
          uni.getFileSystemManager().writeFile({
              filePath: `${wx.env.USER_DATA_PATH}/temp-image.png`,
              data: base64Data,
              encoding: 'base64',
              success: () => {
                  resolve(`${wx.env.USER_DATA_PATH}/temp-image.png`);
              },
              fail: reject
          });
      });
  }

async function saveBase64ImageToAlbum(base64Data) {
  const tempFilePath = await base64ToTempFilePath(base64Data);
  uni.saveImageToPhotosAlbum({
      filePath: tempFilePath,
      success: () => {
          uni.showToast({
              title: '图片保存成功',
              icon: 'success'
          });
      },
      fail: (error) => {
          uni.showToast({
              title: '保存失败:' + error.errMsg,
              icon: 'none'
          });
      }
  });
}

saveBase64ImageToAlbum的逻辑是将base64格式转换成png格式,存放在用户临时目录中,然后通过调用uni-app的saveImageToPhotosAlbum接口保存到相册中,在开发者工具中演示结果如下:

查看保存的图片:

预览图片

在完成整个微信小程序的开发之后,突然想着没有点击预览图片的功能,于是给image组件绑定了click事件,绑定previewImage函数实现了这一块功能。

代码语言:JavaScript
复制
const previewImage = function() {
    base64ToTempFilePath(picBase64.value);
    uni.previewImage({
        urls: [`${wx.env.USER_DATA_PATH}/temp-image.png`],
        current: 0
    });
}

使用uni-app的previewImage接口,直接预览保存在用户目录的图片即可。

如图,点击实现预览,至此,从参数输入的设计、请求hai文生图接口以及保存图片到相册的开发就完成了。

优化

上面AI绘画使用的是stable diffusion自带的模型,所以生成的图片没有那么理想,所以大家可以根据hai操作文档,将自己喜欢的模型上传。

从程序开发角度来说,优化内容主要是两个部分,一部分是前端UI设计,一部分是权限的控制,例如一个用户可以请求的次数等等,这里只讲前端UI的优化的部分。

微信小程序的优化内容一是可以增加图生图等模块,二是修改css,更改小程序的UI配色和布局设计,这里主要还是讲css部分。

上图是最终修改后的小程序样式,修改了配色和各个组件的样式,这里就以textarea为例。

代码语言:css
复制
.prompt-textarea {
    border-radius: 4px;
    background-color: #F1F4FA;
    height: 80px;
    width: 95vw;
    margin: auto;
    font-size: 13px;
    box-shadow: 1px 1px 5px rgba(0, 0, 0, 0.2);
    padding-left: 5px;
    padding-top: 3px;
}

设置了4px的圆角,居中、背景色、阴影等,同时通过padding设置,从视觉上让文本输入是向右偏移,而不是紧贴这输入框边缘。

结语

五分钟,从购买1元”炼丹券“到创建实例、使用stable diffusion服务。总的来说,hai极度简化了stable diffusion的使用难度,不需要自己准备电脑,随时随地可以在电脑或者手机上使用AI绘画。

第一次开发微信小程序,还有许多学习的地方,后续会更新一些关于自学微信小程序内容。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • HAI
  • 开放API
  • 微信小程序
    • 设计
      • 开发
        • 1. prompt
        • 2. step
        • 3. scale
      • 4. seed
        • 5. sampler
          • 6.生成按钮
            • 7. image组件
              • 保存图片
              • 预览图片
          • 优化
          • 结语
          相关产品与服务
          大模型图像创作引擎
          大模型图像创作引擎是一款 AI 图像生成与编辑技术 API 服务,可以结合输入的文本或图片智能创作出与输入相关的图像内容,具有更强大的中文理解能力、更多样化的风格选择,更好支持中文场景下的建筑风景生成、古诗词理解、水墨剪纸等中国元素风格生成,以及各种动漫、游戏风格的高精度图像生成和风格转换,为高质量的内容创作、内容运营提供技术支持。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档