首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能正在学习操纵我们,而我们却不知道到底是如何操纵的

人工智能正在学习操纵我们,而我们却不知道

原创知识猫

试图决定给你弟弟的圣诞礼物是什么?在哪里投资你的储蓄?是把厨房刷成白色还是黄色?别担心!人工智能正在帮助你。人工智能是来帮忙的。而这是很可怕的。

科技巨头们收集(以及买卖)大量的客户数据,这已经不是什么秘密了,这些客户几乎是我们所有人。我们可能有理由担心我们有多少个人数据掌握在私人公司手中。但我们可能花较少的时间来思考他们到底用这些数据做了什么--包括使用人工智能(AI)来利用人类的决策。

一个黑匣子

人类非常善于操纵对方;事实上,我们很可能已经从事了几千年的工作 "战术欺骗"。但是,由于人工智能的帮助,即能够自我学习的软件系统,人类可能更容易受到这种胁迫。

当以正确的方式部署时,人工智能可以说服你买东西,分享帖子,为候选人投票,或做任何事情。最近,来自澳大利亚联邦科学和工业研究组织(Commonwealth Scientific and Industrial Research Organisation)的一个研究小组进行了一系列实验,探讨了人工智能如何影响人类决策。结果显示,人工智能可以找到并利用人类决策中的弱点,引导人们做出某些决定。"CSIRO的机器学习专家和这项研究的首席研究员Amir Dezfouli在一份新闻稿中说:"这项研究的影响可能相当惊人。

就像一个好的销售人员(或迷人的骗子)可能会让你做一些你可能不会做的事情一样,这些算法可以让你点击、购买或分享;这不仅是因为他们对你有如此多的了解,而且还因为他们知道哪些技术有可能让你做出一个决定而不是另一个决定。

而可怕的是,我们并不完全了解人工智能如何做到这一点。"多伦多大学研究人与机器人互动的沙恩-桑德森(Shane Saunderson)说:"棘手的是,人工智能在某些方面仍然是一个黑盒子。"它不是一个明确的机器,说二加二等于四。它是一台机器,你向它展示一堆数据,它分析这些数据的模式、分类或它能从中获得的洞察力。而我们并不总是确切地知道它是如何做到这一点的。" 例如,人工智能通过收集和分析大量的数据,很快就发现社交媒体在利用负面情绪时更有吸引力,人们对负面内容的反应和参与程度更高。近年来,这产生了巨大的不可预知的后果。

"这绝对是可怕的事情,"桑德森说。

桑德森将此描述为 "平庸之恶 "的一个典型例子。他说:"没有一个邪恶的行为者是真正想做坏事的,"他说。"Facebook没有人出去说,'是的,我们想在缅甸造成种族灭绝',或者'我们想大规模地影响选举'。这绝不是某人的意图。" 当然,其意图是向你出售东西--或者在Facebook的情况下,让你在网站上参与,以便购买广告空间的公司可以向你出售东西。但其后果可能远远超出商业范畴。

无论好坏

Dezfouli指出,这些技术的使用是好是坏,取决于我们如何负责任地设计和部署它们。为了确保良好的结果,CSIRO和澳大利亚政府为政府和行业的人工智能制定了一个道德框架。这些(自愿的)原则包括许多你可能期望的东西,如 "人工智能系统应尊重和维护隐私权和数据保护"。另一个租户说,透明度和负责任的披露是至关重要的,这样人们就可以了解他们的选择何时被引导,并发现人工智能系统何时与他们接触。

桑德森说,最后一个是关键,他说使人工智能符合道德规范归结为透明度。他说,当你与一个机器人或人工智能互动时,你至少应该知道以下问题的答案。

谁拥有它或它背后的利益方?

它的目标是什么?例如,它是想向你推销东西还是想说服你应该吃药?

它使用什么策略来达到这些目标?

它有什么数据?

可悲的是,对我们大多数人来说,这些问题的答案仍然是一个黑盒子。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20211214A0CMYP00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券