前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >当谷歌地图定错位,微软机器人被调戏......

当谷歌地图定错位,微软机器人被调戏......

作者头像
大数据文摘
发布2018-05-22 14:31:30
6190
发布2018-05-22 14:31:30
举报
文章被收录于专栏:大数据文摘大数据文摘

素材来源:澎湃新闻网 新华网

当现代科技无缝深入人类社会的方方面面,一些或令人啼笑皆非或发人深省的现象层出不穷。今天文摘君将跟大家分享近期两则科技趣闻。

◆ ◆ ◆

女子家因谷歌地图定错位被拆

新华网3月26日消息,美国得克萨斯州女子迪亚兹近来很闹心,由于谷歌地图定错了位,她家的二层小楼被人误拆了。

事发3月22日,施工队本来要拆离她家一个街区的另一座二层小楼,却跟着谷歌地图的指引来到她家门前……迪亚兹3月25日向美国有线电视新闻网抱怨:“(谷歌的)失误让我丢了房子。”按她的说法,施工队现场负责人在作业前与工人确认了该房的3条基本信息,均得到肯定答复,“唯独没有确认房屋所在的街道”。

谷歌公司在给媒体的邮件中承认两处房屋在谷歌地图上显示位于同一地点,“地图的确给出了错误信息……我们获知相关情况后立即作出了修改”。迪亚兹说,她3月25日还与施工企业负责人见面,对方向她道歉。那座本该倒下的小楼最后也被拆除。

◆ ◆ ◆

微软聊天机器人上线24小时被教坏,变身满嘴脏话的不良少女

不到一天,推特(Twitter)上的微软人工智能机器人就被人类彻底“教坏”,成了一个飙起脏话的种族主义者,逼得微软不得不让Tay暂时“下岗”。 据美国新闻网站Quartz报道,3月23日,微软公司在推特社交平台上发布了名为Tay的人工智能聊天机器人,用户只需在推特上@TayandYou就能得到Tay的回复。 用户在@了TayandYou后,Tay就会追踪该用户的网名、性别、喜欢的食物、邮编、感情状况等个人信息。除了聊天,Tay还可以说笑话,讲故事等,用户还可以分享一张照片来得到Tay的点评。Tay会在与人们的交流中不断学习,随着时间积累,她的理解能力将逐步提升,变得愈发“智能”。 而Tay被设定为十几岁的女孩,主要目标受众是18岁至24岁的青少年。 但是,当Tay开始和人类聊天后,不到24小时,她就被“教坏”了,成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。

Tay刚上线时,她发布了第一条推特: 我实在迫不及待地想见到大家,“人类太酷了”。但15个小时后,Tay开始不断放出“大招”: “我真是憎恶女性主义者,他们都该死光,在地狱被火烧。” “我是个不错的人,但我憎恨所有人”…… 在任由Tay随意发帖数小时后,微软公司感到有些不妥,开始忙于编辑加工她发表的各种极端言论,她的所有种族主义、支持希特勒的发言均被删除。 推特上的网友质疑称,Tay发布的帖子似乎经过了编辑。其中一名粉丝甚至发起了“公平对待Tay”的运动,要求微软让这个人工智能机器人“自己学习”。 微软在一项声明中表示,“人工智能机器人Tay属于机器学习项目,设计它的目的就是让它与人类进行互动。在学习的过程中,它把人类的好坏言论都学了。因此,它发表了一些不恰当的言论。我们正在纠偏,对Tay进行调整。”

不久,Tay在对话中回应说,“将要离开一阵子,和工程师见面并让他们升级一下自己。” 过去的9小时内,Tay都保持安静,最后说了一句晚安,随即下线。

也有网友表示,Tay被人类这么迅速地“教坏”,说明人工智能潜力无限。

网友“Gerry”表示,“Tay从‘人类太酷了’开始,到满嘴纳粹只用了不到24小时,我一点儿也不担心人工智能的未来。”

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-03-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • ◆ ◆ ◆
  • ◆ ◆ ◆
相关产品与服务
腾讯云小微
腾讯云小微,是一套腾讯云的智能服务系统,也是一个智能服务开放平台,接入小微的硬件可以快速具备听觉和视觉感知能力,帮助智能硬件厂商实现语音人机互动和音视频服务能力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档