对于人工智能的未来而言,其彰显了人工智能研究可能存在哲学限度

在人工智能的研究中,关于框架问题的传统的一般假设认为,人工智能在某种程度上可以通过“产生式”来解决。该观点认为当非证明性确认原则上是受到信念系统的整体特性影响时,对于一个特定的假设,实际上,产生式程序可以确定由于接受它而对其他信念产生的影响的范围。

既然这些程序根据假设仅仅是一些产生式,它们就可以被假定为局部性的——即并不会受到它们所适用的整个信念系统的影响。部分学者也认为,最近人工智能中的某些新观点——例如明斯基的关于“框架”的观点和尚克关于“脚本”的观点都阐明了信念固化的整体性问题,从某种意义上说,这些观点可以提供一个框架来划定遇到特定问题时所需回忆的信息范围,从而通过逻辑程序作出智能行为。但是,福多却并不看好明斯基和尚克的方案,相反,福多认为,“这种进步的出现完全是一种幻觉——是将符号与理论混淆在一起的重要例证。”如果框架问题拥有规律性的解法,那么毫无疑问这种解法可以表达为对脚本或框架的限制,而特定的归纳加工只能在限定的范围内进行。

但是,因为这种解法不存在,所以那种认为只有在框架中表征的信息才能被问题激活并用于解决问题的计算的观点完全没有内容。一方面,因为框架的个性化完全不受限制,所以在任何两条信息都可以根据程序员的判断划归到同一框架中。这就是说无论框架问题的最终解法是什么,该解法都能够被调适为框架符号。

可见,这只是用另一种方式说明了符号,并不能限制解法。另一方面,可以相互参照是框架广为人知的特性。然而,此处我们会以如下的形式又一次碰到框架问题:在特定的问题解决中,实际上利用了这些路径中的哪些呢?并且究竟什么限制了整个路径的长度?所发生的这些情况表明,框架问题不能看成是逻辑确认的问题,我们现在需要从执行控制理论来思考这个问题。目前持这种看法的人越来越多。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181102A0WE3Q00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券