首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI 模仿人脑究竟靠不靠谱?

本文转载自奇偶工作室

许多人认为人工智能(AI)是个“黑盒子”,其实这么说也没错。AI的最大问题之一,就是我们很难理解它解释数据的方式。

一个小游戏

在进一步研究之前,让我们先来做个小游戏。我给你展示一系列抽象的图片,它们属于分类A或B中的某个。

你认为下面的图像属于分类A还是分类B?提示:没有分类C。

我们稍后再说结果。我们来看看更多的例子。

现在你能判断它属于A还是B了吗?

答案是……A!

选了B也不要难过,你不是唯一一个,选择了B的人。我问了整个屋子里所有的工程师和开发者,答案大概是一半一半。所以……为什么答案是A?

因为我说了答案是A。

答案就是A,不用跟我抬杠,但如果你不同意,那就说明我这个训练师当得不好。

作为训练师,我知道A代表红圈。所以任何中间有红圈的都是A。我也知道B是橙色的圈。其他的图像都是无关的。所以,只需要找到一组图像中的特征,但非常难。

在AI系统中,我没办法把组成A的图像的规则,用语言描述出来。我只能给它提供大量图片,期待它能发现规律。

而你,作为人工智能,也没办法,告诉我为什么你选了B。我只能不断地给你数据,直到你给出正确结果。

苹果还是橙子?

下面是同样的一组图片,只不过没那么抽象了。如果我问你同样的问题,任何人都会立即回答,A是苹果而B是橙子。

这个问题太过简单,许多人甚至认为是脑筋急转弯。我们都知道,手和背景中的一切,都是无关信息,因为我们人类从出生开始,就在学习这些东西。但人工智能并不知道。对于它来说,图像都是抽象的,它并不知道你关注的是什么。

我们来看另一个场景,这个场景能演示,我们可能给了AI系统错误的信号。我们有一些橡树的样例(我住的地方有点阴天)。

下面是一些棕榈树(这些是在阳光明媚的沙滩上的)。

下面这张图是棕榈树,但光照环境与橡树图片更相似。那么,我们该关注哪些因素?光照?还是树的形状?模型很难做出判断。

Confidence:

-Palm.75

-Oak.60

从这个例子中可以明显看出,我们无意间给AI,留了另一种模式去学习。但实际情况远没有这个例子明显。

我们怎样才能知道AI关注了什么?

我们可以在图片上,放一个矩形框,然后记录下自信值的变化。如果自信值降低,那么遮住的那片,很可能是重要区域。

哪张图更能猜出这根线是USB线?

第一张图完全盖住了接口,因此几乎没办法猜出,所以我们认为矩形框盖住的部分是重要的。但在第二张途中,矩形框完全没有影响我们,猜测线缆类型的能力。因此,可以安全地标记这片区域,为不重要的。

我们可以继续在图片上放置矩形,来建立图片重要性的热区图。

可以看出,模型关注的是接口的尖端,这很好。它关注了我们希望它关注的部分。

我们来看看一个训练得不太好的模型。

Confidence:

-USB.76

模型正确地预测出,线缆是USB,自信值为0.76。这个结果可以接受,特别是在照片距离较远、质量也不高的情况下。

但是,仔细检查后发现,模型似乎关注了错误的地方,而不是我们希望的线缆一端。

模型似乎过分关注了线缆本身和手指。为了提高准确度,我们可以提供更多线缆和手的图片,作为反面训练集。

我们不需要大量的通用数据,来训练模型直到模型变好。利用这些信息作为辅助,可以省下大量时间和金钱。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190111A18RZ600?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券