最近一段时间,AI领域的热搜名词,DeepSeek高居榜首,各路人马跑步进入DeepSeek赛道,以自家产品接入DeepSeek为荣。
为什么DeepSeek会造成“全民狂欢”呢?其实一句话就能概括:信息平权。
现在各种工具都在不断接入DeepSeek或者其他AI大模型,至少在公开信息层面,大家处在同一个起跑线。但这些通过AI得来的信息,也存在各种各样的问题。
首先,网络上的各种信息本身就存在误差,或者说虚构。AI或者说DeepSeek的作用,是帮你检索各种信息来源然后进行整合输出,这一点对信息检索效率的提升巨大,但AI给出的信息并不一定是真实或者有用的。
以前我们要获取信息,要么从书本,要么通过浏览器搜索各种信息,然后自己加工整理,判断背后的逻辑和数据是否为真,最后主观决定是否采用。这里的核心是,判断是否为真、是否采用依然是个人主观行为。
而现在,很多人高估了AI,对AI给出的结果太过于信任,长期来说会让人丧失对信息的敏感和识别能力,进而影响认知和独立思考能力。
这种情况,就是AI大模型在当前阶段面临的重大挑战:信息幻觉。
如何理解信息幻觉呢?
大模型本质上是一个概率预测机器,即不断预测下一个Token,且每一个已经生成的Token都会影响下一个Token的生成。
简单来说,同样的Prompt(提示词)会产生不同的答案,这就是所谓的信息幻觉问题。再换个更容易理解的说法,针对同一个或同一组Prompt,大模型的结果不具备幂等性。
而当前缓解(或者说解决)信息幻觉的技术方法只有RAG。
所谓的RAG(Retrieval-Augmented Generation),即检索增强生成。简单理解就是结合向量数据库中与用户问题高度相关的信息以及将用户的Prompt(提示词)一起投喂给大模型,再生成结果。
将RAG解决信息幻觉的过程拆开,就是理解-检索-生成。
“理解”就是拆解用户提问,充分理解用户需求。“检索”就是从网络/数据库等各种渠道找到合适的信息,然后进行排序优化,并将搜索到的信息统一处理,喂给大模型。“生成”阶段综合不同信息来源做出判断,并基于大模型逻辑推理能力,解决信息冲突等问题,最后生成准确率较高的答案。
但,即便经过如此缜密和富有逻辑的处理,AI给出的结果依然不具备百分百的置信度。
个体如何面对信息幻觉的挑战,我是这样思考的:
如果你完全相信AI给出的信息,那你很快就会陷入一种信息幻觉。如果你不敢轻易相信AI给出的信息,那就需要自己去分析判断,这个过程其实就是一个手动检索数据+人工逻辑确认的过程。
DeepSeek的作用是提高我们信息检索过程的效率(当然,需要明确的步骤和具体的要求),借助它的深度推理功能,可以帮你分析出你可能漏掉的推理逻辑,给你更多的方法参考。
由此可以得到一个简单的结论:明确的需求、合理的提示词,很有必要。
对此,DeepSeek官方也给出了专门的官方提示库。
当然,AI时代的信息平权,也暴露了一个很残酷的事实:我们很多人可能连自己的需求都想不清楚,更何谈清晰明确的表达(提示词)给AI呢?
如何跳出这个困境?回到最原始的方法:读万卷书,行万里路,阅人历事。