首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌的人工智能Gemini持续对AI技术进行危险的混淆

直到今年,通过阅读谷歌和其他人工智能领导者发布的研究文档,人们可以简单了解人工智能技术。对于人工智能领域来说,公开披露是常态。

但在今年三月,OpenAI决定几乎没有提供任何技术细节来宣布其最新的程序GPT-4。该公司提供的研究论文几乎模糊了GPT-4的每一个重要细节,这些细节将帮助研究人员了解其结构并试图复制其效果。

上周,谷歌延续了这种新的模糊策略,宣布正式发布其与DeepMind部门合作开发的最新生成式人工智能程序Gemini,该程序于五月首次亮相。谷歌和DeepMind的研究人员发布的博客文章几乎没有提供任何技术规格,并附带的技术报告几乎完全缺乏任何相关技术细节。

博客文章和技术报告大部分引用了一系列基准分数,谷歌自夸在大多数指标上击败了OpenAI的GPT-4,并超越了谷歌以前的顶级神经网络PaLM。

博客和技术论文都没有包括过去几年中习惯的关键细节,比如程序具有多少神经网络的“参数”或“权重”,这是其设计和功能的关键方面。相反,谷歌提到了三个不同规模的Gemini版本,分别是“Ultra”、“Pro”和“Nano”。技术报告确实透露Nano有两种不同的权重计数,分别为18亿和32.5亿,但没有透露其他两个规模的权重。

就像OpenAI的GPT-4技术论文一样,许多其他技术细节也缺失了。在没有技术细节的情况下,网络上的辩论集中在基准测试的夸夸其谈是否有意义。

OpenAI的研究员罗恩·泽勒斯在X(前身为Twitter)上写道,Gemini非常令人印象深刻,并补充说:“我也无法确定我们现在可以对十几个文本基准测试有多少信任。”

科技新闻网站TechCrunch的凯尔·维格斯报道了有关谷歌的Bard搜索引擎表现不佳的轶事,这得益于Gemini的改进。他引用了在X上的帖子,其中人们询问Bard关于电影知识或词汇建议的问题,并报告了失败的情况。

在引入新技术或产品时,攻击性的言论是常见现象。然而,过去的技术细节可以让外部人士通过评估最新程序与其直接前身(如PaLM)之间的技术差异,对能力作出更为明智的评估。

由于缺乏这样的信息,人们通过随机向Bard输入内容来进行碰运气式的评估。

谷歌和OpenAI突然采取保密态度,对科技行业来说已经成为一个重大的伦理问题,因为除了供应商——OpenAI及其合作伙伴微软,或者在这种情况下,谷歌的谷歌云部门——没有人知道他们计算云中的黑盒子中发生了什么。

去年10月,牛津大学的埃马努埃莱·拉马尔法和Alan Turing研究所以及利兹大学的合作者警告称,GPT-4和其他模型的不透明性“对社会的AI造成了重大问题”,即“最强大且最危险的模型也是最难分析的”。

尽管谷歌由于与OpenAI及其合作伙伴微软在市场份额上的商业竞争而不愿透露信息,并不令人惊讶,但有一项非常重要的遗漏:模型卡片。

模型卡片是AI中一种标准披露形式,用于报告神经网络的细节,包括程序的潜在危害(仇恨言论等)。尽管OpenAI的GPT-4报告省略了大部分细节,但至少在论文中对模型卡片做了一点提及,并在“GPT-4系统卡片”部分表示受到模型卡片的启发。

谷歌甚至没有做到那一步,省略了任何类似于模型卡片的东西。这一省略尤其奇怪,因为模型卡片是由包括曾经担任谷歌道德人工智能联合主管的玛格丽特·米切尔和前联合主管蒂姆尼特·格布鲁在内的团队在谷歌发明的。

在报告中,不是提供模型卡片,而是用含糊的措辞提供了一个相当奇怪的关于程序部署的段落,暗示在某个时间点会有模型卡片:

如果谷歌在自己的技术披露中对模型卡片加上问号,人们必须思考神经网络的监管和安全的未来是什么样的。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OX1UW4OJczCEZ_A-aGiDLhzA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券