首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能也会主观臆断

在谈论这一观点前,我们先认知一下人工智能的几个阶段。

当我们可以将数据用更先进的方式存储和利用,在结合机器的计算逻辑和一定的规则,让机器有了代替人脑去判断的能力,这就是第一代人工智能(基于规则的人工智能),基于此,我们可以让机器识别考生答案的对错,实现诸如智能判卷的应用。

在深入下去,出现了第二代基于特征提取的人工智能,基于向量机的技术。弱点就是需要专家,需要专业知识,需要手动提取出特征,然后告诉机器(程序),这样机器才能识别出什么是树叶,这就有出现欠拟合和过拟合的问题,如判断过于严格那么世界上没有相同的叶子,也就识别不出来树叶,这就是过拟合。如果判断过于宽松,那么一颗大树有可能被识别成树叶,这就是欠拟合。

那么,我们能不能让机器具备人脑的思考和学习能力呢?

当然可以,这就是“深度学习”这就是“神经元网络”,但是很长一段时间我们受限于数据,我们过去是没有足够的数据去训练机器(程序),并且我们没办法对大数据量的模型训练有效的收敛,直到“反向传导学习”理论出现,并且我们有了大数据存储和处理能力,这才有了第三代人工智能。

不可否认,人工智能将要发展到强人工智能阶段,就是说通过学习,机器可以自我更新。某种程度上来说,机器已经相当于拥有人类的学习水平。强人工智能具备充足的数据储存能力和强大的复杂分析能力,会将它所经历的一切记录下来,不断优化修正。通过用户提供的数据,机器可以从数据的角度出发,从最理性的角度做出分析并且做出相应的反馈。但是,数据本身的角度,不一定是一个正确的角度,而优化的路径,也可能是一条不归路。

最近很火的一部电视剧“西部世界2”里面最核心的一个思维,就是收集人类的行为和数据,然后反复的对机器人训练,训练机器人的应激反应是否与本体一致。每一个人的性格都不一样,所以机器人都拥有自己的性格,因为这是机器通过数据自我学习形成的性格,而不是设定出来的。我们可以想象一下,通过不同的数据训练的程序,判断同样事件时,除了事件本身的条件外,未来难免会包含机器本身的性格。

比如,我们老师(人类)去评选优秀学生时候,往往会很主观,因为包含情感问题,比如某个学生是他的爱徒,他势必会有一定的偏向性。所以我们认为让机器去按照规则判断更为客观。但随着人工智能技术的逐渐成熟,我们已经无法保证,机器判断的事情是客观的了,也许机器通过自我训练会更喜欢某个学生,也许机器也会自我脑补出一个美好未来(不是真实的情况)。

所以,按照人脑思考和学习的方式发展的人工智能技术,最终仍难免发展出人类的坏习惯。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180707G0ETJB00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券