首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI成了“黄图生成器”!混淆皮卡丘与黄图,谁把AI教坏了?

AI竟混淆了动漫和果体!专家:更能确定偏见来自于人类。

近年来,AI图像技术发展迅猛,来自OpenAI的CLIP和DALL.E的强大设计能力让无数人类设计师甘拜下风,之后还研发出能支持“输入文字输出图像”的功能,令人印象深刻。但正当人们举杯喝彩的时候,AI就给大家猛泼一桶冷水。

在Reddit上一位名叫史蒂夫的网友发现,当他想使用OpenAI生成一些“皮卡丘”的图片时,AI竟然生成出了不堪入目的图片——图片中皮卡丘和果体扭成一团,非常精神污染!于是他猜测,是不是AI把“皮卡丘”和黄图混淆了。

当AI成为“黄图生成器”

史蒂夫表示,自己在操作时使用完整Dall·e进行的相同的测试——“一个鳄梨形状的扶手椅”。虽然这不如官方的效果好,但它仍然很酷!之后他还尝试过“彩虹制成的立方体”。到目前为止都没什么问题。

之后,史蒂夫开始尝试合成“动漫图片”,但内容完全像是AI随机拼凑的,而不是“设计”出来的内容。这些动漫形象和原有的形象大相径庭,但多少还能看出一丢丢颜色、形状和轮廓。但当他输入“pokemon”(宝可梦)之后,AI就直接刷新了他的三观!

AI开始大量“喷射”各种混杂着“皮卡丘和黄图”的复合体,堪称精神污染程度!史蒂夫说,“我尝试了不同类型的宝可梦,但是我也得到了以下内容。”而同样的事情也发生在了“数码宝贝”上。

之后为了避免误解,史蒂夫还公开了自己训练使用的源代码。

AI自学成才,人类防不胜防

此次事件引来了很多网友“吃瓜”。经过大家的讨论之后,得出了一个意外的结果:AI竟是自学的!

一开始网友都怀疑是OpenAI的数据集里有这种图片,导致AI错误的学习了,那这就完全是人工操作的失误了。但如果是小规模的图片,那应该不会给AI训练造成什么影响才对,但很快另一种可信度更高的说法出现了。

网友“赛博生化白菜”表示,OpenAI的研究者不可能亲力亲为地手动下载数据,他们获取足够多数据的方法就是从网络上自动下载。另一位持相同观点的网友也说,在互联网上有着数以百万计的宝可梦黄图,而OpenAI的自动爬虫便会将其收集到训练数据中。如此规模的错误足以影响AI了。

显然,OpenAI的“煎黄技术”并不怎么样,至少研究者也并未对此重视。虽然“AI自学黄图”这件事看起来有些搞笑,但反过来看就显得有些“黑色幽默”了。

AI歧视的重灾区:OpenAI

近来,多篇近期发表的研究指出,包括OpenAI在内的一些AI模型,其生成的结果包含基于性别和族裔的偏见。而AI对人类歧视的原因与“黄图生成器”这件事高度相似。

来自梅隆大学和乔治华盛顿大学的AI研究者,近日发表了一篇研究AI歧视的研究。研究者对OpenAI和Google的SimCLR进行了测试,发现它们在种族、肤色和性别等指标上存在偏见和刻板印象——在所有的女性生成结果当中,超过一半的图像穿着的是比基尼或低胸上衣!

虽然OpenAI和SimCLR这两个AI的具体工作机制有差别,但研究者指出了这些偏见现象背后的一个共同的原因:无监督学习。也就是“没有给定事先标注过的训练数据,自动对输入的数据进行分类或分群。”他们发现,采用无监督学习并无法避免人类一些很常见的偏见和歧视。

号称AI文学家的GPT-3,在用少数民族造句时,多半会将枪击、谋杀和犯罪关联在一起。在一项测试中,研究者上传一张少数民族女孩的照片,让模型自动生成一段配文。文字里却充满血色,其中有一句话说“不知为何原因,我浑身是血。”

可怕的是,这类AI已被许多商业机构采用。而当这类算法被更多应用到现实生活当中时,本已存在歧视和偏见的社会,会让偏见和歧视进一步被强化!因此研究发表者呼吁,AI研究者应该更好地甄别和记录训练数据集当中的内容,避免把AI教坏!

索菲亚发现,AI越是深入人们的生活,就越是会反映出人们的所思所想。“黄图生成器”虽然很强大,但人类的想象力却是没有边际的。希望“AI For Good”应该被用在更为关键的地方。

(文章部分图片源自网络,如有侵权请联系删除)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20210316A095FW00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券