首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ChatGPT 的局限性:可信度、时效性、成本和专业性

ChatGPT 是一种基于大规模语言模型的聊天机器人,它可以根据用户的输入生成流畅、自然、有趣的回复。然而,ChatGPT 也存在一些不足之处,需要用户注意和理解。这些不足之处包括:

可信性无法保证

ChatGPT 的回复可能是在一本正经地胡说八道,语句通畅貌似合理,但其实完全大相径庭,目前模型还不能提供合理的证据进行可信性的验证。

例如,ChatGPT 可能会对一些历史、科学、文化等方面的问题回答错误或者与事实相悖,甚至可能会造成误导或者误解。因此,用户在使用 ChatGPT 时,不能完全相信它的回复,要有自己的判断和思考能力,避免盲目接受或者传播错误的信息。

时效性差

ChatGPT 无法实时地融入新知识,其知识范围局限于基础大规模语言模型使用的预训练数据时间之前,可回答的知识范围有明显的边界。

例如,ChatGPT 可能不了解最近发生的新闻、事件、人物、产品等,或者对一些变化了的事实没有及时更新。

因此,用户在使用 ChatGPT 时,不能指望它能回答一些涉及最新知识或者动态变化的问题,要有自己的信息获取和更新能力,避免落后于时代或者错过重要的信息。

成本高昂

ChatGPT 基础大模型训练成本高、部署困难、每次调用花费不菲、还可能有延迟问题,对工程能力有很高的要求。

例如,ChatGPT 需要大量的计算资源和存储空间来训练和运行,而且每次生成回复都需要消耗一定的时间和费用,这对于一些资源有限或者效率要求高的场景来说是不划算或者不可行的。

因此,用户在使用 ChatGPT 时,不能指望它能随时随地无限制地为自己提供服务,要有自己的成本和效率意识,避免浪费资源或者影响体验。

在特定的专业领域上表现欠佳

大规模语言模型的训练数据是通用数据,没有领域专业数据,比如针对特定领域的专业术语翻译做的并不好。

例如,ChatGPT 可能对一些医学、法律、金融等专业领域的问题回答不准确或者不专业,或者对一些专业术语翻译错误或者不恰当。

因此,用户在使用 ChatGPT 时,不能指望它能回答一些涉及专业知识或者技能的问题,要有自己的学习和提升能力,避免误信或者误用。

语言模型每次的生成结果是 beam search 或者采样的产物,每次都会有细微的不同

语言模型是一种用于描述自然语言的概率分布的数学模型。它可以根据一些已知的词或者句子,预测下一个词或者句子的可能性。语言模型的应用非常广泛,例如机器翻译、语音识别、文本生成等。

语言模型的生成结果通常不是唯一的,而是有多种可能性。为了从这些可能性中选择最合适的一个,我们需要一种搜索策略。常用的搜索策略有两种:beam search 和采样。

beam search 是一种贪心的搜索策略,它每次只保留最有可能的几个候选结果,然后在这些候选结果的基础上继续扩展,直到达到预定的长度或者遇到结束符。beam search 的优点是可以保证找到最优解或者近似最优解,缺点是可能导致生成结果过于平凡或者重复。

采样是一种随机的搜索策略,它每次根据语言模型的概率分布随机地选择一个候选结果,然后在这个候选结果的基础上继续采样,直到达到预定的长度或者遇到结束符。采样的优点是可以保证生成结果的多样性和创造性,缺点是可能导致生成结果不合理或者不连贯。

由于语言模型每次的生成结果是 beam search 或者采样的产物,因此每次都会有细微的不同。这也反映了自然语言本身的多样性和灵活性。

但是,这也意味着语言模型可能对输入敏感,对于某个指令可能回答不正确,但稍微替换几个词表达同样的意思重新提问,又可以回答正确。这说明语言模型目前还不够稳定,需要更多的数据和训练来提高其鲁棒性和泛化能力。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230407A090F200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券