鱼香肉丝儿 发自 即将被AI占据的工位
没人能够否认,人工智能正在从各个领域全面赶超人类。
作为最后的阵地,写作、电影、绘画…各种依赖于创造力的工作,是我们人类“最后的倔强”。
等等,慢着…你确定?
翻翻你前几天虐待谷歌“猜画小歌”的大作,和今天的这些AI 机器人绘画比起来,你可能才是那个人工智障。
梵高 or 毕加索?没啥 AI 搞不定的流派
这些 AI 作的画是个什么水平呢?先来看几幅感受一下:
和你们这些灵魂画师一样,AI 们的画作也有着鲜明的流派之分。
高居榜首的几幅作品全部来自于一个叫做 CloudPainter 的机器人,擅长创作奇异的肖像和风景。
有“离经叛道”的画家,自然也就有喜欢传统流派的 CMIT ReART。仔细看,画风似乎颇得梵高的真传。
还有来自哥伦比亚大学的 PIX 18 专攻临摹,每幅作品都像原版照片的扫描版。
人像呢…也分写实派
印象派
野兽派
和手残派!
颇有禅意的国画风…
要让 AI 学画画,必须分几步?
讲真,如果不说,我绝对猜不到上面这些画作全是 AI 的作品。
事实上,这些画全部来自上个月结束的2018 年 RobotArt 大赛的参赛选手。
从名字就能看出,这是项画风清奇的比赛——参赛选手清一色都是机器人。注意,这项大赛并不接纳 AI 直接生成的作品,参赛的团队必须让机器人在学习后,自己蘸着颜料一笔一划画出来的。
想让机器人学画画,需要分几步呢?
其实和人类学绘画的过程无异,聪明如 AI 也得从最初级的临摹开始练习。
比如这幅来自乌迪内大学团队的《的里雅思特海滨》,就是照着下面这张图“复刻”而成的:
这个乌迪内大学的“灵魂画师”叫做 Busker,是个有着六个自由度的机械臂。
在这条机械臂“动手”前,系统会对原始画作进行分析,规划出一系列能够描绘图像特征的点,连点成线就生成了机械臂的运动路径。
为了制造更逼真的画作质感,Busker 的笔尖选择了 3D 打印,自行“蘸取”不同颜色的颜料在纸上作画。
Busker 机器人的算法
https://sites.google.com/site/buskerrobot/home/gradient-based-random-strokes
有兴趣的小伙伴可以自行下载玩玩~
像 Busker 这种“连点成线”的技巧,完成的画作,在色彩和画面是都很“性冷淡”。想要更浓墨重彩一点儿的,就要换种手法了。
比如来自泰国农业大学的《盛开的樱花》,就模仿了数字油画的绘图方式。
算法会将原画简化成几十到几百种不同的色彩;再通过数字定点,控制机械臂把颜色涂在相应的位置,等到所有颜色都涂完,一张画就大功告成了。
Emmm…不过现在,这顶多叫做一副“像素画”。而且受限于笔触,这些像素点往往粗糙地辣眼睛。
所以,怎样才能让画面的细节更加精细呢?
校正反馈。通俗一点说,就是让机器人在涂色时粗心一点,故意把颜色涂到框框外面;并配合摄像头捕捉画面,对“出框”的范围进行微调。
不过,看到这儿,不知道你怎样定义上述所谓的“机器绘画”,但在小编看来,这充其量算个涂色游戏。
通常人类画画的流程是怎样的?
先勾勒出主题框架,再填充细节。而 AI 和机器人呢,用细节堆砌出一幅画,完全不用考虑画面的结构和比例问题…
这样就声称 AI 学会画画了,真的大丈夫?!
当然,这个重要的问题也有团队想到了,于是,他们的决定是…
在原有的绘画流程上加一个步骤——先把图像分解成大块的抽象图案,绘制在画面底层;在此基础上逐层增加其他图层,不断丰富细节,使画面更加完整。
有了这个画蛇添足的步骤,从流程上看,AI 画画确实更“人类”了,但机器人依旧缺少整体的构思、构图思维。
说白了,现在的 AI 和机器人们顶多算个高级点的复印机,其绘画水平还只能停留在模仿的层面。大规模量产已有作品是可以的,但谈到艺术的核心——创意、构思和表现力,依旧要依赖于人类自己的大脑来完成。
尽管如此,对比前两届,AI 在临摹上的功力已经可谓进步神速。
2016 年大赛举办的第一届,冠军作品《爱因斯坦肖像》是用图层叠加的方式绘制的。虽然一眼就能认出是谁,但在细节处理上…emmm 就不说什么了。
再看看这几幅…恕小编我很难找出合适的风格将它们对号入座。
2017 年的作品就比之前像样多了。人物刻画细腻,好像恍惚之间都能感受到一丝情感了呢…
偶尔还有几幅大师级的作品诞生…
当人工智能变成人工智障
看到现在,对于现在的 AI 技术而言,简单的临摹有些大材小用,但上升到“创作”层面,人工智能又心有余而力不足。
难道就没有个充分发挥 AI 绘画天赋的方式吗?
非也!比如…取个中间值,让 AI 帮我们优化作品就是个不错的创意啊。
去年,一个叫 Christopher Hesse 的程序猿就基于开源的 AI 机器学习系统 Tensor Flow 开发出了一个程序,这个叫做 Image-to-Image 的应用,其主要功能就是在“灵魂画师”们的简笔画上自动“添油加醋”,将其转换为一张完整的图像。
举个例子~
你画了一只猫
而在这个程序眼里,你的作品是长这样的
惊不惊喜,意不意外?!
上面那个绘画水平太难了?没关系…它简直堪称手残党的救星
历史经验告诉我们,太溜的应用很容易被玩坏,Image-to-Image 也没有幸免,随着大家纷纷晒出自己的成果,画风慢慢变得有些奇怪了…
不知道下面几张会不会被微信审核小编毙掉…
同样的灵魂画工移植到人脸上,就是部鬼片了…
据 Christopher Hesse 自己说,他的想法是源于 Phillip Isola 的一篇论文。为了训练这个Pix2pix 模型,Hesse 用了大约 2000 张猫主子的图片,将每一张喵咪的边缘线生成出来。
但边缘线并不完美,在很多情况下,边缘线都无法勾勒出猫咪的眼睛,这也就是为什么许多图片中,猫咪眼睛的翻译效果很差的原因。
而对于后面的“鬼片”,就只能怪你们自己手残了…
这项技术利用了生成器网络和判别器网络的相互作用。前者是让画出图和用户的相像,后者是让AI在用户绘画的基础上生成效果尽量真实的图画。
翻译一下,要想 AI 画得好,用户你自己先靠点谱!
嗯,这个甩锅我是服气的~
Image-to-Image 的网址在此 https://affinelayer.com/pixsrv/;
想玩死 AI 和开发者的小伙伴们,请自便~
回到开头的机器人绘画大赛。
RobotArt 大赛的创始人 Andrew Conru 认为,至少短期内,靠创意和创造力谋生的人就别指望自己能下岗了。现在的机器人将更多应用于“制作绘画作品”,而非“绘制作品”。
就像相机的诞生,并没有让画家们把画笔束之高阁,机器人也不会。
另外,你不用过早杞人忧天的原因还有一个。
机器人绘画的入门成本可比摄影高多了,一只正儿八经的机械臂少说也得10000 美元起。如果拿这笔钱买笔和颜料,恐怕这辈子都画不完。
总而言之一句话,保住艺术家饭碗的不是人工智能智障的绘画技术,而是……
穷
文中涉及的论文及应用链接:
[1] RobotArt Gallery:https://robotart.org/
[2] Busker 机器人的算法:https://sites.google.com/site/buskerrobot/home/gradient-based-random-strokes
[3] Image-to-Image 应用:https://affinelayer.com/pixsrv/
[4] Phillip Isola 的论文:https://arxiv.org/abs/1611.07004
领取专属 10元无门槛券
私享最新 技术干货