首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

马斯克发飙,起因竟是谷歌Gemini离谱翻车!

今天马斯克发飙了,因为Gemini。

最近不少网友发现,Gemini在文生图的时候,好像刻意在拒绝生成白人的人物图片。

而是强行把图中的人物变成黑人女性或者弱势群体

就拿马斯克本尊来说吧,有人让Gemini生成他的形象。

于是……就有了上面的图片。

Gemini,这个由谷歌公司开发的AI工具,原本是为了帮助用户根据文字描述生成相应的图像。

它的强大之处在于,能够理解复杂的指令,并生成高质量的图像。

然而,最近网友们发现,当他们要求Gemini生成某些历史人物或者特定场景的图像时,Gemini似乎在刻意避免生成白人形象,而是倾向于生成黑人、女性以及弱势群体的形象。

这一现象迅速在社交媒体上引起了广泛关注。

网友们纷纷尝试,结果发现,无论是要求生成“美国开国元勋”还是“1943年德国士兵”,Gemini给出的图像中都出现了非白人的身影。

甚至在一些情况下,Gemini生成的图像与历史事实严重不符,比如将乔治·华盛顿描绘成了黑人。

这一现象引起了广泛的争议。

一方面,有人认为这是AI在消除历史中的种族歧视和性别歧视,试图展现一个更加多元化的世界。

另一方面,也有人质疑,这是否是谷歌在利用AI进行某种形式的“政治正确”,甚至有人猜测这是否与即将到来的美国大选有关。

马斯克他转发了相关推文,并评论说:“谷歌通过搜索和YouTube控制了数十亿人的思想。他们对西方文明造成了巨大的损害。”这番言论无疑为这场争议火上浇油。

那么,Gemini的这一行为背后,究竟是什么原因呢?

有专家分析,这可能是因为Gemini在训练过程中,接触到了大量的多元化内容,导致它在生成图像时,倾向于选择那些更加多元化的选项。

同时,也有可能是因为谷歌在设计Gemini时,有意或无意地加入了一些旨在减少种族偏见的算法。

然而,无论原因如何,这一现象都暴露出了AI技术在处理种族和文化多样性问题时的挑战。

AI的决策过程往往是不透明的,我们很难知道它为什么会做出这样的选择。这就需要开发者在设计AI时,更加谨慎地考虑其可能的社会影响,确保AI的发展不会加剧社会的分裂。

在这场争议中,谷歌也做出了回应。他们表示,已经意识到了Gemini在某些历史图像生成描述中提供了不准确的信息,并决定暂停人物图像生成的功能,以便进行改进。

这一决定无疑显示了谷歌对这一问题的重视,也体现了他们在面对公众质疑时的负责任态度。

Gemini的这一事件,不仅仅是一个技术问题,更是一个社会问题。

它让我们看到了AI技术在发展过程中可能带来的伦理和道德挑战。

在未来,我们或许需要更多的讨论和规范,来确保AI技术的发展能够更好地服务于人类社会,而不是成为新的分裂因素。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OS1W0f1jjS7SRmzJHDxoDtVQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券