“
这是一套 0 基础入门的AI绘画系列课程,不需要任何基础!涉及全面:环境搭建、基础篇、进阶篇、应用篇、模型篇以及行业解决方案篇
课程制作不易,爱学习的你一定不要忘了订阅关注哦~~
已经有一阵儿了,在七月初开源那会已经介绍过一次,效果非常炸裂,但介于当时上手体验成本非常高,一直在等一个性价比高的体验方式。这不,它来了!
我们来回顾一下 DragGAN 的效果
一 DragGAN 是什么
DragGAN 模型,是一种革命性交互式图像操作方式,允许用户将图像中的任意点“拖动”到目标位置,以精确控制姿势、形状、表情和布局。主要包括了两个组件:
基于特征的运动监督,驱动手柄点向目标位置移动
新的点追踪方法,利用辨别式GAN特征来定位手柄点的位置
简单来说就是就是可以通过用鼠标扮演手柄的角色,在图片中实现图像点拖拽,进而来实现人动物的五官,形态变换
这一节我们不过多讲解原理,直接开始上手体验。如果你对原理感兴趣,可以点赞让我看到!后续填坑!
二 安装
DragGAN 对于 GPU 资源的要求更高。为了方便大家更快的能上手体验,我写了个简单的 Kaggle 脚本,大家只需要一键执行脚本即可。
如果你还不会使用 Kaggle,可以先回顾一下前面的内容,并注册账号
DragGAN脚本链接:https://www.kaggle.com/code/xinsi1/drag-gan/notebook
如果你按照前面的课程注册号账号并且执行完脚本,你可以看到下图,并且能看到一个链接,点击这个链接即可把玩
三 使用
功能介绍
DragGAN 已经内置了生成AI照片的功能,打开链接后可以看到如下的界面。(你可以通过通过调整 seed 来换图)
Drag
Add Points: 可以在照片上面添加控制点,控制点成对出现,第一个是起始点,第二个是目标点。
ResetPoints:重置所有的控制点
Start:添加好控制点之后点击 Start,DragGAN 开始干活
Stop:DragGAN 不会自动停止,需要手动点击 Stop,需要挑选合适的时机点击 Stop
Mask
Edit Flexible Area:可以在照片上创建遮罩,DragGAN 只会调整遮罩内的画面
实战
眯眯眼
第一步:设置遮罩
第二步:添加控制点
第三步:找准时机点击 Stop(emmmm.... 很明显时机没把握好..
哈哈哈哈,时机真的很重要!!!
再来看看其他的对比图
笑的再开心些
瘦脸肯定是更不在话下
我要大眼睛
你把头扭过去
试玩还是挺有意思的,不要稍不留神还是会被过度修复,还需要让子弹再飞一会儿。
好在这个试玩方案很简单,大家可以上手玩一玩儿
领取专属 10元无门槛券
私享最新 技术干货