现在越来越清楚,AI其实并没有真正懂文字(符号)的内容和逻辑;
比如,AI并不能搞懂 9.11与9.9的大小----虽然它似模似样的解了很多数学问题。
其实,它只是根据概率碰撞去依样画葫芦。
类似的还有下图的这样的错误:
对于固定的问题,它可以依照曾经发生的问题和答案,然后匹配性搜索来填空。所以看起来解决了问题。
但一旦有一点点创造性要求,有一点点逻辑推演和判断,它就歇菜了。
比如,最近看到一个用AI来分析“35岁程序员回应长期熬夜脑干出血抢救、男子长期熬夜劝大家好好爱自己”。
AI给的答案如下:
看图片的“1/2/3”的分析,看起来头头是道,其实毫无逻辑关系。
1的内容是脑干出血的严重性。而2的内容却是分析熬夜导致脑血管病的机制分析。
但我们知道,这个35岁程序员是脑内动脉瘤破裂出血,但熬夜可以让动脉瘤破裂率增高吗?这有严谨的调研数据支持吗?
这里没有引用任何资料证实这点。而是泛泛而谈“熬夜导致脑血管病的机制”。
这就是跨越式论证,中间的证据完全没有,论证也是跳跃式。
最搞笑的是2的最后一个分析居然是血栓形成;但这人明明是脑动脉瘤破裂呀。完全是风马牛不相及呀。
它连脑血管病与脑动脉瘤破裂的区别都没搞清楚。
这图片里还有其他内容错误。我就不多说了。
总之,AI只是一种基于语言的概率碰撞的结果。其实它并没有真正理解文字内容的意义,逻辑关联。
它可以帮助我们查找资料,查找确定的结论。但它不能真正去理解,分析问题。
要真正去理解,分析问题,还得靠我们自己。
领取专属 10元无门槛券
私享最新 技术干货