首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌解释为什么Gemini的图像生成功能对多样性进行了过度校正

近日,谷歌的高级副总裁普拉巴卡尔·拉加万解释了Gemini图像生成功能的过度校正问题,并表示公司致力于改进这一功能。他指出,过度校正主要是由于谷歌努力确保生成的图像符合广泛人群的需求,但未能考虑到一些情况下不应该显示的内容,以及随着时间推移,人工智能模型变得更加谨慎,拒绝回答本质上不具有攻击性的提示所致。

据铋读网了解,Gemini的图像生成功能旨在确保生成的图像不包含暴力或色情内容,并且应该涵盖不同种族和特征的人。然而,最近的发现表明,Gemini会拒绝某些提示,例如专门针对白人的提示。此外,Gemini还存在生成历史准确图像的问题,例如在生成第二次世界大战期间德国士兵的图像时出现了穿着纳粹制服的黑人男性和亚洲女性的图像,以及生成美国开国元勋和历代教皇的图像时出现有色人种的照片。

拉加万强调,谷歌不打算让Gemini拒绝创建特定群体的图像或生成历史上不准确的照片。他重申了谷歌的承诺,即将致力于改进Gemini的图像生成功能。然而,这需要广泛的测试,因此公司可能需要一段时间才能重新启用该功能。目前,当用户尝试使用Gemini创建图像时,聊天机器人会回复他们正在努力提高Gemini生成人物图像的能力,并预计此功能将在发布更新时通知用户。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OImeQrJrX9UFjwYRdDhSYPcA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券