首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

为什么说人工智能(AI)并不能替代医生?

现在越来越清楚,AI其实并没有真正懂文字(符号)的内容和逻辑;

比如,AI并不能搞懂 9.11与9.9的大小----虽然它似模似样的解了很多数学问题。

其实,它只是根据概率碰撞去依样画葫芦。

类似的还有下图的这样的错误:

对于固定的问题,它可以依照曾经发生的问题和答案,然后匹配性搜索来填空。所以看起来解决了问题。

但一旦有一点点创造性要求,有一点点逻辑推演和判断,它就歇菜了。

比如,最近看到一个用AI来分析“35岁程序员回应长期熬夜脑干出血抢救、男子长期熬夜劝大家好好爱自己”。

AI给的答案如下:

看图片的“1/2/3”的分析,看起来头头是道,其实毫无逻辑关系。

1的内容是脑干出血的严重性。而2的内容却是分析熬夜导致脑血管病的机制分析。

但我们知道,这个35岁程序员是脑内动脉瘤破裂出血,但熬夜可以让动脉瘤破裂率增高吗?这有严谨的调研数据支持吗?

这里没有引用任何资料证实这点。而是泛泛而谈“熬夜导致脑血管病的机制”。

这就是跨越式论证,中间的证据完全没有,论证也是跳跃式。

最搞笑的是2的最后一个分析居然是血栓形成;但这人明明是脑动脉瘤破裂呀。完全是风马牛不相及呀。

它连脑血管病与脑动脉瘤破裂的区别都没搞清楚。

这图片里还有其他内容错误。我就不多说了。

总之,AI只是一种基于语言的概率碰撞的结果。其实它并没有真正理解文字内容的意义,逻辑关联。

它可以帮助我们查找资料,查找确定的结论。但它不能真正去理解,分析问题。

要真正去理解,分析问题,还得靠我们自己。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Ok7BFSgXbepdAU1w4ylNrujw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券