首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

人工智能学坏了!已出现种族和性别偏见…

英国媒体《卫报》今日发表评论文章指出,人工智能已经开始出现了种族和性别偏见,但是这种偏见并非来自机器本身,而是计算机在学习人类语言时吸收了人类文化中根深蒂固的观念。科学家呼吁,应当建立一个监管机构,去纠正机器的这种行为。以下是文章主要内容: 让计算机具备理解人类语言的人工智能(AI)工具已经出现了明显的种族和性别偏见。 这些发现令人担忧现有的社会不平等和偏见正在以新的、不可预知的方式得到强化,因为影响人们日常生活的大量决策正越来越多地由机器人做出。 在过去的几年里,谷歌翻译等程序的语言翻译能力有了显著提高。

06

揭开计算机识别人类语言的神秘面纱——词向量

无论是机器翻译,还是智能人工客服,你是否好奇计算机是如何识别理解人类自然语言,并给出反馈的呢? 无论是人还是计算机,对于语言的识别理解,都应该是建立在一定的语料库和语料组织规则(语法)基础上的。对于听到或看到的一句话,势必会将其先按照已知的语料和语法进行快速匹配,才能够识别理解这句话的意思,并给出相应的反馈。当然,人类可以自然识别文字和语音,在大脑中对自然语言进行快速的多样化匹配理解,并作出相应的反馈。然而,对于计算机来说,就需要将这些字符数学化才能够被识别。 下面,我们就来看一句话是怎样被数学化,最终被

03
领券