首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

炸了锅了!为了配合你智商“演出”的AI,被逼成了人工智障!

随着人工智能的普及,人工智能的威胁理论也应运而生

人工智能将来真的会和我们作战吗?如果机器人“爆发反抗”,我们能做些什么来阻止它们?

在回答这个问题之前,让我们先谈谈著名的图灵测试。

顾名思义,这是计算机科学之父、人工智能之父图灵先生提出的。

图灵测试是试图“机器是否能思考”,并通过机器和人类之间的对话来判断哪个是人类的答案,哪个是机器给出的答案。如果机器人成功愚弄了评委,即使它通过了测试。

每年,都会有一场人工智能竞赛,名为“Robna奖”,根据图灵测试规则选择最类似人类的计算机程序。

在这场比赛中,如果机器人通过做超出人类能力的事情来展示自己的身份,它将会被击败...

图灵认为,对于这场竞争,编程中的一些“缺陷”可以留给更好的玩家。无论是早期的普通人还是后来的专家,比如计算机工程师,都有一些人被成功的机器“欺骗”。

罗布纳奖竞赛成立后,《经济学人》发表了一篇名为“人为愚蠢”的文章。

文章中提到,因为计算机显示出超人的性能,程序员不得不强迫聊天机器人出错,以确保机器给出的答案不会超过人类的能力。

例如,为了赢得考试,我故意输入了错误的单词,并限制了它让自己更像一个人的能力。媒体称这些错误为“人为愚蠢”。

事实上,“人为愚蠢”随处可见。例如,游戏开发中的NPC (非玩家角色)增加了“人为愚蠢”的设置。

关于如何让机器人在图灵测试中显示出缺陷,胡志向我们展示了人类的智慧。有一个问题叫做“如果你是图灵测试仪,你会问机器什么问题?”,楼下的回答五花八门:

本文图片来源于网络,如有侵权请联系删除

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180909A0YFV500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券