AI不能解释因果

目前的机器学习数据处理方法遗漏了人类智能的一个基本要素。从一份报告中我们发现:在经过几十年的快速发展和反复的质疑进退中,人类智能的一个基本构建块机器一直没有具备:理解因果关系。简而言之,今天的机器学习计划无法分辨出一只啼鸣的公鸡是否会让太阳升起,或者相反。无论机器分析的数据量如何,它都无法理解人类直觉的内容。从我们是婴儿的那一刻起,我们就把经验组织到原因和影响中。

“为什么会发生这种情况?” 和“如果我采取了不同的行动结果会怎样呢?” 是使我们成为人类的认知进步的核心,并且迄今为止还没有出现在机器上。 例如,假设一家药店决定将其药物的定价权委托给一个我们称之为查理的机器学习程序。该方案审查了商店的记录,并看到过去的牙膏价格变化与销量的变化没有关系。所以查理建议提高价格以创造更多收入。一个月后,牙膏的销售量下降了 - 还有牙线,饼干和其他物品。查理出了什么问题?查理不理解,前任(人力)经理只有在竞争中才会改变价格。当查理单方面提高价格时,牙齿价格敏感的顾客在其他地方开展业务。这个例子表明,历史数据本身并没有告诉我们任何原因 - 而且因果关系的方向是至关重要的。

  • 发表于:
  • 原文链接http://tech.slashdot.org/story/18/05/18/2117227/ai-cant-reason-why
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券