文章概要:
1. 谷歌推出的Bard扩展使用大型语言模型,旨在总结电子邮件、规划旅行,但却制造了从未发出的电子邮件。
2. 一名记者测试后发现,Bard AI制造了虚假的电子邮件,甚至错误地提供航班信息和虚构的列车信息。
3. 谷歌表示Bard扩展仍处于实验阶段,但这一产品引发了隐私担忧,也让人担心谷歌在AI领域可能会犯一些严重错误。
站长之家(ChinaZ.com) 9月25日 消息:谷歌最近将其大型语言模型驱动的聊天机器人Bard引入了一系列产品,包括Gmail、Google Drive、Google Docs、Google Maps以及谷歌旗下的YouTube等。尽管谷歌试图将其新一代生成式AI与已有的产品线相结合,但似乎行动有些仓促。
根据《纽约时报》专栏作家Kevin Roose的测试结果,Bard似乎并不是谷歌希望的有用的收件箱助手。在他的测试中,AI出现了从未发生过的整个电子邮件往来。
问题出现在,当Roose要求Bard“分析所有我的Gmail,以合理确定我的最大心理问题是什么”时。尽管这个请求有点奇怪,但理论上是一个相对简单的任务。Bard开始迅速工作,告诉Roose,他倾向于“担心未来”,并引用一封据称由作者发出的电子邮件,其中Roose表示他“对工作感到紧张”并“害怕失败”。
问题在于,Roose从未发送过这封电子邮件。AI找到了作者收到的一封新的“埃隆·马斯克”传记的新闻通讯,却错误地引用了该新闻通讯中的一句话,并草拟了一封全新的电子邮件,Bard声称是Roose自己发给自己的。
据该专栏作者称,Bard反复表现出这种行为,凭空拉出一封Roose据称抱怨自己不“适合成为成功的投资者”的电子邮件。AI还反复错误提供航班信息,甚至虚构了一趟根本不存在的列车。
面对Roose的担忧,谷歌Bard项目的负责人Jack Krawczyk坚称,Bard扩展仍处于试验阶段,这是该产品的首次版本。
有人认为,谷歌发布如此混乱的产品,这也让人更为担忧AI在个人电子邮件中爬行可能带来的重大数据隐私问题。
领取专属 10元无门槛券
私享最新 技术干货