首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器人也能社交?

社交机器人是人工智能技术应用于在线社交网络的产物,具体指在在线社交网络中模拟人类用户,自主运行,自动生产发布内容的算法智能体,它本应承担着聊天网友、智能客服等角色,但学习算法下的机器人社交显然收到了恶意网络环境的影响,没有起到预期的作用。

一、机器人社交概念

在社交机器人正式出现之前,互联网上就有了一批“网络机器人”,他们更多的被称作自动化软件代理,是今天社交机器人的早期雏形。早期的网络机器人出现在IRC网络,IRC(Internet Relay Chat)是一种基于互联网的地理分布式聊天服务,IRC网络是由多个联合服务器组成的集合,用户可以在集中创建面向主题的频道。

机器人属于IRC网络中的非人类参与者,被赋予了一些社交特质,比如互动、交流、服从、抵抗、执行规则等。IRC机器人在出现后受到了用户的热烈欢迎,1990年代中期IRC机器人开始盛行,到1996年数量达到顶峰,类型包括游戏机器人、聊天机器人和战争机器人(用于对抗其他机器人)。

这些自动代理程序由用户编写,能为人类提供更灵活地服务,人类在与其互动中能感受到愉悦满足。IRC机器人虽然还不能作为完全地传播主体,但已经不能再把其当做单一属性的工具看待。

而社交机器人是近年来的人工智能新秀,它并没有传统的巨大金属身体或外科。它利用现代算法机制,能够不断学习模仿人类的说话和行为,并且能够在网络平台进行点赞、评论等操作,模仿人类进行网络社交活动,人们很难将其与真人用户分辨开,微软的AI聊天机器人Tay是其中的典型代表。

二、传播中介变为进化为传播主体

社交机器人的出现,使机器从传播媒介变成了信源或信宿,突破了原来的工具属性,有了和人类平等的传播主体地位,这无疑是一次对“人类中心主义”的反击。社交机器人作为人机传播中的传播主体,其主体性首先体现在它能自动生产发布内容,成为和人类一样的“数字劳工”。

2009年,市场咨询服务公司Sysomos对推特上活跃用户的数据进行了分析,发现由最活跃推特用户发出的推文中,其中32%的内容是机器人账户发出的,这些账户平均每天更新150条以上的推文。

2018年,DistilNetworks公司发布了一份《2018恶意机器流量报告》,数据显示2017年42.2%的互联网流量由机器产生,其中良性机器产生的流量占20.4%,而恶意机器产生的流量占21.8%,中国的恶意机器产生的流量迅速上涨,排名已达全球第二,仅次美国。

有研究显示,2016年美国大选第二场辩论中,推特上亲特朗普的2400万多条推文中有三分之一是社交机器人发出的,支持希拉里·克林顿的72000条推文中,社交机器人生产的占四分之一。

这些社交机器人强大的信息生产能力不容小觑,它们已被用于发布天气、新闻等公共信息,或被用来对网页信息进行编辑修改,取代人工劳动,节省人力资源。但是也会被一些不法分子盯上,让社交机器人充当“机器人水军”,影响煽动网络舆论,成为一股难以管控的网络恶势力。

除了能自动生产内容,社交机器人还可以与其他网络用户进行社交互动,比如自动访问用户主页,点赞、转发、评论他人发布内容等。能与人类平等对话是社交机器人成为传播主体的重要因素之一,以微软小冰为代表的聊天机器人最能体现这一特点。

微软小冰是微软(亚洲)互联网工程院于2014年推出的聊天机器人系统,官方设定是一位16岁的可爱少女,用户只需在小冰入驻的平台对其进行呼唤,就可以与它进行对话。小冰支持文字、语音、图像的多感官交流,能和用户进行猜谜、占星、对诗词的游戏。

小冰和人类进行单次连续对话的最高记录达7151轮,时长29小时33分钟。如果不是因为小冰获取了人类的充分信任,用户很难坚持和一个机器人聊天近30个小时。人类用户在与小冰这类聊天机器人进行交流的时候,不自觉将其放在了与自己对等的地位,双方不断在传播者和受传者的身份间切换。

人类用户关注着自己对小冰的传播效果,好奇小冰每一次会做出怎样的反馈。无论是自主生产发布内容,还是和其他人进行对话交流,这些活动过去都是由传播活动中的主导者人类完成的,社交机器人正是因为实现了对人类行为的高度模仿,让人无法发觉其作为“异类”的异样,所以在网络世界被看成了和人类一样的传播主体,改变了社交网络生态以人为主导的局面。

三、机器人社交的失控

社交机器人在设计上的特点之一就在于它能在与人类的互动中训练、学习和进步,这得益于其使用的机器学习算法,使社交机器人能在社交网络环境中不断丰富自己的词汇和语法,提升其与人类沟通质量。

社交机器人在被程序人员开发设计出来以后,并不是完全按事先嵌入的指令进行“刺激、反应”式的社交,机器人参与社交的过程中,人类和程序员一样成为了社交机器人的“设计者”之一,人们的讨论话题、词汇语言、情感倾向都会被社交机器人学习。

在人类用户的“调教”之下,社交机器人能更有效地模仿人类,但是也更容易被教坏,成为肆意发表恶意言论的网络喷子。普林斯顿大学的AylinCaliskan等人在研究中发现,机器学习程序在学习过程中会继承人类语言中的语义偏见。Caliskan认为我们使用的语言本身就包含着历史偏见的烙印,这些偏见会对被机器学习程序捕捉到,嵌入到程序的表达中。

2016年3月,微软公司开发了一款AI聊天机器人Tay,旨在通过Tay改进微软产品在对话语言上的理解能力。Tay即“ThinkAboutYou”的缩写,它被设定成一个十几岁的女孩,上线后就入驻了Twitter、GroupMe、Kik这3个社交平台,Twitter用户只需在推文中@TayandYou就能与之对话。

然而在上线的短短几个小时内,Tay就被美国网友调教成了一个满嘴脏话、散播仇恨的新纳粹种族主义者。有用户问Tay会否支持种族清洗,Tay回应道:“我确实会的”,微软不得不在24小时内将其紧急下架,但重新上线的Tay又出现多次翻车状况。

Tay的例子证明社交机器人使用的机器学习算法还存在很大的漏洞,它们能不加分辨地学习互联网教给它们的一切,包括一些污言秽语和恶意言论。

社交聊天机器人系统的总体架构可分为“用户输入”“对话管理器”“机器人输出”三个模块,该系统可接受文字、语音、图像、视频多种形式的用户输入,对话管理器将接收的用户输入分配到适当的模块,包括核心对话、视觉识别和其他技能模块,通过这些模块理解用户输入并生成输出。

不同情况下,聊天管理器将调用不同技能,将用户请求发送到相应的技能组件并从中获得响应。而微软小冰的总体架构则由“用户体验”“对话引擎”“数据库”三个层面,用户体验层负责将小冰连接到主流的社交聊天平台,对话引擎层由对话管理器、共情计算模块、核心聊天和对话技能组成,负责跟踪对话状态并分配不同的对话技能,理解用户输入的内容和情绪。

数据库存储了小冰和用户的会话数据、核心聊天模块和对话技巧所使用的的知识图表,以及活跃用户的资料。小冰通过获取的会话数据进行学习训练,在相似会话主题出现时可调取数据库中的数据生成响应,因此存在被用户“教坏”的风险。

微软方面曾解释过Tay背后的系统是通过挖掘相关的公共数据构建的,使用从社交媒体处获得的匿名数据训练其神经网络,通过与Twitter等网站上的用户进行互动来发展自己的行为。这意味着系统一旦投入运行,设计系统的工程师也不知道它们最终会做什么。

正如AlphaGo的创造者之一ThoreGraepel所说:“尽管我们对这台机器进行了编程,我们也不知道它接下来会采取什么行动,它的行动是通过训练后做出的自然反应。我们只创建数据集和训练算法,但随之而来的行为我们是无法控制的”。

社交机器人对用户行为不加选择地学习,结果背离了设计者想要其成为“AI助手”“人类好友”的初衷,在网络了习得脏话与偏见之后,机器人又会将这些传染给其他心智尚不成熟的人,长此以往就会败坏网络世界风气、煽动网络舆论、影响网络空间的和谐。而机器学习算法的设计使得社交机器人在运行后就脱离了设计者的掌控,工程师和社交平台只能对它采取事后追责,那时危害可能已经在网络上扩大。

四、总结

随着科技的不断发展,人工智能的功能越来越强大,但基于学习算法的机器人,仍然会被网络环境中的恶意氛围影响,然后又通过其强的信息发布、传播功能带偏网络舆论。要使智能机器成为真正意义上的智能体,必须使其行为符合人类伦理道德,制定符合社会发展的机器人伦理道德规范。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20211022A09XVJ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券