首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

研究数据不精准?你想多了AI技术被过度夸大、误解换个姿势来看

人工智能不断推进,不过也有质疑相关研究的报告精确性应当存疑。

「AI 将取代你的工作!」相信身处于人工智能技术准备大跳跃的时代,这是人人都听过的话。阅读许多科技文献与新闻,也时常能看见人工智能将以某种形式取代人力工作,其实不光是新闻媒体对于 AI 技术的乐观看待,包含研究人员与新创公司也是如此,然而我们对于 AI 的评估是否过度乐观呢?

科技网站《TechCrunch》的记者Danny Crichton 发表一篇文章,他认为人们对于 AI 技术的认知与正确性已经遭到夸大,大众媒体中所报道的具有误导性,数据的解读也存在瑕疵,不过并非全然是媒体的问题,因为就连 AI 研究人员所公开的资料本身可能就是错误、不恰当的,人工智能研究也身陷「再现危机」(Replication Crisis)。

「再现危机」一词率先出现于心理学领域的研究中,研究所为了制造大量的新闻话题,在研究数据上采用不恰当的样本、使用错误的实验方式,导致许多实验证实的结果,事后并无法依据相同的步骤再现。在人工智能领域的研究中存在相同的现象,Crichton 认为这场危机的成因很多,有许多实验室面临发布新研究否则就灭亡的生存危机,因此亟欲公开最新的研究结果。

AI 广泛运用在各个领域,但机器的判断力能与人类相当吗?

在 AI 研究中,代码是运行人工智能的关键资料,然而多数的实验室都不会选择公开,仅列出研究结果的统计数据,若无法取得机器学习过程的训练数据,不但无法证实这项研究的真伪,同时也无法再次呈现相同的实验结果。

研究报告通常会列出, AI 对于工作、判别成功率或是精准度,如一份用人工智能判断患者是否有大肠癌的研究报告,内文写到精确度为 86%,在谷歌运用机器学习进行翻译工作的报告中则是写说,其翻译系统能展现「接近人类」的翻译水平。

Crichton 质疑 AI 的研究报告都会丢出一个统计数字或是「接近人类水平」的比喻,若只是用来评估 AI 系统非常简单,但若要与人类一样运行、判断,却无法套用相同的标准。

举例说明,如果想要确定皮肤上的痣是否有癌变可能,对于 AI 可能就只有两种答案:「有、没有」,但在医学诊断中,人类藉由大量的调查来计算出罹患癌症的可能性,并且藉由不同强度加以区分、权衡,为了避免错误诊断所带来的治疗风险,医师需藉由不同方式才能确立病情。

目前 AI 技术离成熟仍有很多进步空间。

写在 AI 研究报告中的准确度与相关描述,与我们所想像的有所不同,数据有操作的空间,「趋近人类」等文字的描述则无法显示真实。

Crichton 于文末表示,没有人可以在人工智能的领域上成为大师,因此对于这些新技术的研究结果都要保持怀疑、谨慎评估,且重要的是,现在许多被人类依赖的 AI 技术,都还在发展阶段,AI 要取代人类,还非常非常遥远。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180318A0KG6U00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券