IBM公司的AI研究人员说问题是什么,才是真正的问题

谢谢大家点开这篇文章,话说最近的天气开始冷了,为了避免换季感冒,小编只能裹着大毛毯上班了,大家也要注意保暖呦,这个季节感冒太不好受了,爱你们哟,比心比心。

IBM公司的AI研究人员说问题是什么,才是真正的问题,在今天的机器学习技术和未来的“AI”之间有一个地方,它是模糊,困难和冲突的。

在这种违背行为中,IBM努力将自己作为能力和经验的代言人。

本周在蒙特利尔 举行的着名的NeurIPS机器学习会议上,IBM高管IBM技术经理John Smith和IBM研究院首席研究科学家Kush Varshney表示公司在如何处理非常“脆弱”的机器学习领域可以更可靠和“值得信赖”,取决于该短语的含义。

史密斯告诉ZDNet说:“这是关于从狭窄的人工智能转移,所有这些真正强大的技术都是高度准确的,但在有限的应用领域内,并使其更广泛,更脆弱,可解释。”

史密斯说, 也许不是“ 人工智能 ”,而是介于人工智能的圣杯和今天神经网络的实际实现之间。

其中一些涉及特定的原始技术成就,IBM研究人员将在本周讨论这些成就。例如,Lazaros C. Polymenakos正在展示论文知识基础端到端对话,它建立在自然语言嵌入句子领域的先前工作之上。它试图通过将自然语言语句中的各个实体视为在内存中拥有自己独立的空间来更好地理解机器学习模型。

然后有一些工作从技术方法扩展到一个概念,即如何定义机器学习中的问题。一个例子是Project Debater,一个让人们参与来回对话的计算机系统。

史密斯说:“我们已经明白了计算机如何将论证放在一起。” “Debater是关于计算机如何首先解决这些问题,计算机如何进行并完成所有的功课?”

“有关Debater的有趣之处在于,它不只是阅读而是倾听,”史密斯说。“倾听人们如何说话,这是听力理解。”

尽管史密斯将Debater描述为“非常早期的基础工作” - 但IBM在一个大集合中发布了大量已发布的研究成果 - 这并不是IBM从头开始创建技术的一个例子。“我们在这里建立自然语言处理工具,”他解释道。

“如果你正在寻找一个单一的端到端模型,那就不是那样,它就是整个NLP管道,并且在这种情况下完成所有这些工作,并建立基线。”

对于史密斯来说,人工智能问题又一次又回到了问题的定义上。“从技术的角度来看,你可以提出一个好主意”,“然后没有数据,或者与有趣的数据无关。”

IBM已经有选择地挑选了它认为可以提供帮助的领域,例如偏见案例。在展会的IBM展台上,该公司展示了监控器,描述了诸如探索美国重罪犯累犯预测的努力。

研究公司ProPublica 在2016年做了一项关于累犯预测的研究,该预测是使用私人算法“COMPAS”进行的,该公司被Northpointe公司出售给执法部门。ProPublica的研究发现,例如,非洲裔美国人被该算法预测为具有比其他成员更高的再犯率,而历史累犯数据实际上并未支持这种情况 - 这是种族偏见的一个例子。

Varshney在显示屏上显示结果,显示IBM可以修改这些数据以提出高度准确的预测,但也没有高偏差。他说,为什么这很难,以及为什么它受益于IBM的技术。“困难在于统计要素之间的依赖性”,Varshney说。“即使您明确删除了种族,性别等变量,或者明确地补偿了这些变量,您必须经历并找到所有依赖性的方式导致偏见。” (更多关于此事的原始博客文章的努力。)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181206A1PPVH00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券