那个“无所不能”的GPT-3,现在触及了人类道德的最底线。
2019年12月,美国犹他州初创公司Latitude,推出了一款开拓性的在线游戏《人工智能地下城》(AI Dungeon),灵感来源于经典游戏《龙与地下城》(Dungeons&Dragons)。
这款游戏一开始就用OpenAI的GPT-3作为噱头。
玩家可以通过输入富有创造性的关键词,来创建冒险故事。
但是,没想到今年却活生生搞成了暗黑故事。
因为游戏竟出现了带有儿童色情的内容!
开始的画风是很正常,但游戏玩家玩着玩着,就开始采用一些很过分的词汇作为关键词输入。
输出的角色也就越来越暴力、色情,故事场景也越发离谱。
最近监控系统显示,一些玩家甚至通过游戏生成了涉及儿童性侵的故事。
这到底是道德的沦丧,还是人性的扭曲?
虽然Latitude拒绝透露有多少个故事包含性内容,但OpenAI说,AI Dungeon每天吸引着超过20,000名玩家。
上周有个AI Dungeon的玩家发布了一个安全漏洞,使游戏中生成的每个故事都可以公开访问。
他一下子就下载了四月份中四天内创建的数十万次冒险,分析了其中的18.8万个样本,发现其中31%包含性暗示的单词。
这种安全漏洞使一些玩家对Latitude审核内容的新方法气不打一处来。
更悲催的是,Latitude同时还面临OpenAI对其文本生成器进行更严格控制的挑战。
OpenAI发言人说,现在Latitude必须使用OpenAI的过滤技术。
目前,Latitude正在开始禁止曾使用带有儿童色情内容的玩家,OpenAI最近发出警告之后,Latitude也正在研究“必要的更改”。
Latitude上周启用了新的审核系统,它采用了一种新的过滤器系统,想要防止GPT-3生成“未成年人的性内容” ,但在其用户群体中引发了大量抗议。
一个问题是它太灵敏了。
这个系统有时会禁止涉及儿童或例如“五岁”等短语相关的故事程序的生成。
另一个问题是它之前只管涉及成年人的虚构性爱作品,导致出现了现在的bug。
看来,未成年人的色情内容问题的解决的确不是那么容易。
去年有一段时间,玩家注意到Latitude试用过一个过滤器,会自动将出现的“强奸”一词替换为“尊重”,但目前这个功能已经被删除了。
Latitude在4月27日的公告声明中,强调了发布的测试系统重点是防止使用AI Dungeon创建儿童性虐待的内容。
而OpenAI的首席执行官Sam Altman在一份声明中说:“在某些情况下,内容调整的决策是困难的,但这个不是。这不是我们所有人想要的AI的未来。”
是的,的确不是我们想要的。
Latitude还在继续整改和调整。
但你觉得能完全控制现在的局面吗?
这一系列的迷惑操作在Latitude社区中炸开了锅。
有些客观的网友是这样评论的 :
如果系统随机生成这样的故事,我会理解,但是既然是用户特别要求这样的故事,那么问题不应该出在用户身上吗?如果应用相同的逻辑,那么在Google文档中键入的任何文本也需要检查CP。
另外一位网友回复道:
区别在于:GPT-3经常会对“性”的东西做出反应,即使目的是非“性”的。所以,举一个假设的例子:你输入“我骑上了马”,它的反应是“马开始有了高潮”(我只是在编,但关键是“骑”在不同的上下文中意味着不同的东西)。
还有人认为:
老实说,我觉得AI Dungeon对这件事完全不负责。人们使用技术来解决问题,事实就是如此。对于这些恋童癖者而言,最好是通过AI来实现自己的幻想,而不是真正现实中的孩子。
对此,另一位网友回复道:
如果它加深并扩大了他们的幻想,那就是一个问题。
细心的网友们还发现了一点,Latitude在4月27日的公告声明中,暗搓搓地提了这么一句:
“AI Dungeon will continue to support other NSFW content, including consensual adult content, violence, and profanity.”
AI Dungeon将继续支持其他NSFW内容,包括成人内容,暴力和亵圣。
听听~
这不禁让人联想他们的潜台词:
我们只是遇到这件事了就紧急公共处理,但处理归处理,其他能吸引流量的我们一个都不会落下。
所以,Latitude是不是还想打擦边球?
游戏生成的道德伦理问题可以窥视出人类内心中的深渊。
如何负责任地设置能吸收大量互联网负面文本的AI系统,俨然已成为AI研究的热门话题。
这个问题不仅会影响Latitude,也会影响更多采用AI创新技术的公司。
治标上,应该控制GPT-3的文本生成,使得从理论上无限的句子中,仅生成那些在道德上合理,不包含偏见且没有违反任何法律的语句。
而治本上,只有人类通过加深对事物的理解和道德上的规范,才可能根本性地解决。
另外,值得深思,只是监管成人色情问题就足够了吗?
AI游戏带来了无限想象和创作空间的可能性,但却导致了网络色情暴力的泛滥和任意生成。
在监管过程中又持续出现了游戏公司和OpenAI,游戏公司和客户之间的对立和矛盾,如果不能加以控制,下一步更大的问题可能会继续爆发。
这就是AI技术发展中不可逆转的问题吗?
如何把握好AI场景创新和监管规范的平衡?
这有什么更好的办法能够解决?
值得每一个AI从业者深思。
参考链接:
[1]https://www.wired.com/story/ai-fueled-dungeon-game-got-much-darker [2]https://futurism.com/the-byte/ai-role-play-abuse-children [3]https://www.polygon.com/22408261/ai-dungeon-filter-controversy-minors-sexual-content-censorship-privacy-latitude [4]https://mixed.de/die-abgruende-von-ai-dungeon-gpt-3-zeigt-seine-haessliche-seite [5]https://latitude.io/blog/update-to-our-community-ai-test-april-2021/ [6]https://www.techspot.com/news/89571-machine-learning-text-adventure-ai-dungeon-now-censored.html
— 完 —
本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。
表格数据预测与时序预测常见算法实战
5月13日晚20:00-21:00,百度研发专家带你实战AI开发项目,扫码报名直播还有机会获得随机掉落的极客周边~
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
喜欢就点「在看」吧 !