首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

投资小宇宙|基于大语言模型的聊天机器人的回答,必须得对吗?

OpenAI开发的人工智能聊天机器人ChatGPT一经推出便爆红全球,并带动一众人工智能概念股大涨。

各大科技公司不甘落后,谷歌公司也在上周三举办“Google presents:Live from Paris”大会,以展现其开发的与ChatGPT对标的竞品——人工智能聊天机器人Bard。

在展示会上,Bard却意外“翻车”:在回答“如何向9岁小孩介绍詹姆斯·韦伯空间望远镜成果”时,提到该望远镜拍摄到首张地球外行星的照片,但这一成就实际上是智利甚大望远镜在2004年达成的。

由于在演示视频中Bard展现了错误信息,谷歌股价当天直线下跌超7%,创下去年10月26日以来最大日跌幅,谷歌市值也在一夜之间蒸发了1000亿美元。投资者的反应显然是十分剧烈的,因为我们看到人工智能这个词儿的时候,下意识的会脑补它的特征——像计算机一样准确、快速,且同时具有能够具有人类的逻辑思维能力。但ChatGPT却像人一样会犯错。

目前的智能聊天机器人,真的是我们想象中的人工智能吗?给出错误答案是不允许的情况吗?

正巧我们上周写了一篇关于ChatGPT的文章,其中提到了我理解的大语言模型的基本原理(请戳链接),总体来说,大语言模型是通过已有语言文字信息,预测接下来的语言信息的算法模型。其预测的内容和倾向性,与训练数据库中的内容以及数据的标记方法相关。

发现没有,大语言模型的目标从来不是正确的答案,而是更像人类的语言组织形式,以及更像训练目标的倾向答案,也就是更像一个“平均人”。

回到谷歌机器人Bard的发布会上的“翻车”,那个错误在这样的模型下是完全能够理解的。很多种情况都可以导致这样的结果,例如数据库本身的准确性,学习目标函数的设定倾向,数据标记的准确度等,因此也就不必快速得出谁行谁不行的结论。我们自己的小伙伴也在ChatGPT尝试问过数学题,有些时候答案对,有些时候答案错,难的对了、简单却会错。对于一个人工智能来说,似乎这有些“不可思议”,但大语言模型目前并非大家理解的人工智能,不具备逻辑思考能力,只是更像人的聊天机器人,在某些细分领域将成为人类的好帮手。

但随着人工智能的发展与进步谁知道会是什么样子呢,如果真具备了大家脑补的能力,可能科幻电影中的种种境地都可能成为我们要面对的。

作者简介

田瑀,现任中泰资管基金业务部副总经理,中泰开阳价值优选混合A(007549)基金经理、中泰兴诚价值一年持有混合A(010728)、中泰星宇价值成长混合A(012001)基金经理。

复旦大学材料学学士,复旦大学物理学硕士。10年投研经验(其中7年投资管理经验)曾任安信基金特定资产管理部投资经理、中泰资管权益投资部高级投资经理。坚持价值投资理念,善于寻找具有宽阔护城河的成长股,分享企业成长的价值。

基金管理人承诺以诚实信用、勤勉尽责的原则管理和运用基金资产,但不保证基金一定盈利,也不保证最低收益。投资有风险,基金过往业绩不代表其未来表现。基金管理人管理的其他基金的业绩不构成对本基金业绩表现的保证。投资者投资基金时应认真阅读基金的基金合同、招募说明书等法律文件。基金管理人提醒投资者基金投资的“买者自负”原则,请投资者根据自身的风险承受能力选择适合自己的基金产品。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230213A07SP600?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券