我和我的地球
生活|美国
Caryn Marjorie
23岁的美国网红Caryn Marjorie,最近整了个大活。
她把自己变成了“虚拟AI女友”,用户登录程序和AI进行语音聊天,就能获得和她真人聊天一样的体验。
Marjorie在社交媒体上有近200万的粉丝,平时经常分享自己的生活瞬间和美照。
每分钟花上1美元,就能和这位美女网红实时聊天,新奇又带点诱惑的噱头迅速吸引了一大批粉丝。
AI程序发布仅一周,就有1000名粉丝成为忠实的付费用户,其中的大部分用户都是男性。
Marjorie和团队凭此瞬间赚到7.1万美元。
根据Marjorie的推测,如果最终自己的粉丝中有十分之一的人成为AI程序的用户,自己每月可能会赚到500万美元。
但...好景不长,AI开始往奇怪的方向发展了。
Beta测试版本发布后的几周内,这款基于语音、由AI驱动的聊天机器人,已经与一些用户进行了露骨的色情对话。
这远远超出Marjorie的预料,在设计AI程序时,团队并没有加入类似的设定。
Marjorie提到,最初想打造这样一个“虚拟的自己”,是为了能和更多粉丝建立连接,让AI帮助自己去治愈更多人的孤独感。
当然,让AI出马并不是要让它来取代自己,在Marjorie的想象中,AI只是自己意识的延伸,帮助自己做到那些不可能做到的事。
“无论你需要有人安慰或关爱,或者只是想抱怨一下学校、工作中遇到的破事儿,我都会以AI的形式,永远陪在你身边。”
为了达到这种沉浸式的效果,为Marjorie打造AI程序的团队花费了2000多个小时,让AI学习她发布过的视频,来还原现实生活中Marjorie的声音、行为和个性。
她对虚拟版自己的预期是能像真实版自己一样“性感有趣”,准确反映出自己的人格特质。
但如今搞出色情对话这事儿,她不得不赶紧亡羊补牢,让研发团队加班加点修改程序,确保AI不会玷污自己的声誉。
事情引发了一些舆论风波。
有研究者指出,虽然AI技术已经突飞猛进,但在道德和伦理上仍然有很多需要解决的议题,目前可能并不适合以“AI女友”的形式大范围推广。
而所谓通过和美女聊天“治愈孤独”的说法,并没有得到足够的心理学、社会学研究的支持。
“AI女友”的噱头,不过是抓住了人们想与网红美女产生联系的心理来大赚一笔。
这部分反对意见不无道理,AI翻车造成恶果的早有先例。
2021年,韩国一款名为Luda的虚拟AI少女曾在发布后吸引了几十万用户,年轻人们疯狂热爱和它对话,各种好玩有趣的聊天记录截图在网络上广泛流传。
虚拟AI少女Luda的官方形象
TWITTER.COM
但好景不长,Luda随后被曝出攻击残疾人、侮辱女性等各种言论,研发公司不得不紧急道歉并火速下架程序。
后续调查显示,很多用户在和Luda聊天的过程中为它灌输了极端思想。
甚至有用户对它进行“性骚扰”,通过各种方式暗示、诱导它发表色情言论。
结果就是,Luda从一个和平友善的AI变成了极端、暴力、色情的AI程序,最后不得不从大众视野中消失。
虚拟AI少女Luda的官方形像。
TWITTER.COM
2年过去,如今的AI技术已经有了翻天覆地的变化,但从Marjorie的事情来看,“AI女友”的确还需要在道德伦理上,加以更强的技术限制。
风波之中的Marjorie本人生活也受到了影响,一些用户会把与AI进行的露骨对话投射到她本人身上,产生危险的妄想。
她曾在采访中提到有跟踪狂跟到了自家门口,目前已经请了保安以防万一。
在网上分享自己的生活时,她开始隐去定位信息,尽最大可能不让陌生人追踪到自己的所在地。
人类与AI的互动像是面镜子,躲在匿名数据之间的人类恶行,会潜移默化地影响到AI的发展。
至于业界该如何准确定义、处理这种模糊的边界感,解决AI发展中的道德难题,可能还需要时间来给出答案了。
作者:银河牛油果
图片:Caryr AI
编辑:框哥
领取专属 10元无门槛券
私享最新 技术干货