首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI和真相:谷歌Gemini在种族问题上迷失方向?

在技术进化的十字路口,我们看见了什么?——解读谷歌Gemini人工智能引发的多元观点碰撞

随着人工智能(AI)技术的不断发展,一个始料未及的争议在网络上引起了公众的热烈讨论。热点的中心是谷歌的AI工具Gemini,它拒绝展示白人科学家或者律师的图像,这一行为引发的不仅是对机器偏见的讨论,也牵动着关于社会、种族与技术伦理的深层次反思。

至少就目前而言,生成式人工智能绝对不应该被用来为我们的学校创建学习材料

这篇报道源自FOX News,其中介绍了Gemini AI拒绝生成白人图片,同时却乐于展示黑人、西班牙裔或亚洲人的形象,以避免传播关于白人的刻板印象。在众多观点的碰撞中,AI工程师所谓的“修正”或“补偿”机制暴露出了某种假设——假设我们的社会充满了系统性的种族主义。

问题的核心并非只是软件本身的缺陷,而是与源材料相关的更深层次问题。症结在于,AI所使用的网络原始材料,即21世纪的大量网络内容,已经在尽力纠正这种偏见。因此,当AI再次对这些内容进行“去种族化”时,其结果往往是将白人从搜索结果中完全抹去。

这一问题不只局限于种族问题。例如,弗罗里达州州长助理克里斯蒂娜·普肖(Christina Pushaw)使用Gemini进行的关于开放学校与COVID传播的问题。AI提供了学校开放导致病毒传播的证据,但没有提供BLM集会传播病毒的证据。

新闻媒体在报道中显然持有偏见,这使得AI建立在几乎无法挽回的偏颇历史记录上。AI在科学和工程领域或许能够开辟新机遇,但在新闻、历史、监管甚至立法等领域,我们必须对AI引入的巨大缺陷保持警惕。

文章末尾留给读者的,是一个关于信息时代真相与人类判断的难题。在解读线上无数信息以达成理性结论的工作中,人类的主观判断不可或缺。在AI技术的迅猛发展中,我们是否还能保持冷静的判断力?技术失败的笑料背后,隐藏着对未来发展趋势的种种担忧与问号。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OcPfTMx-C9iUFO8nxGmiwOLA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券