首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

微软裁撤人工智能道德管理团队,长期来看弊大于利

为了达到裁员10000人的目标,微软又盯上了微软人工智能部门中的道德和社会团队。这个团队主要和产品设计部门合作,确保为主流用户提供的人工智能产品符合人工智能开发的规则和社会道德标准。这个团队被裁撤后,团队的工作将会被交给人工智能办公室。这个人工智能办公室的职责是为微软的人工智能计划制定规则和原则来管理公司的人工智能计划。

微软的道德和社会团队是一个冷门单位,发展缓慢。这个团队在2020年达到高峰,包括工程师、设计师和哲学家在内的员工达到30人,但是后来微软进行结构重组,去年这个团队人数缩减为7人。

这个团队的日常工作是向用户展示人工智能产品。一些人工智能产品在使用时,没有规则限制,这个团队根据一定的标准去制定规则。

去年AI绘画比较流行,微软也推出了必应Bing Image Creator。这个团队根据自己的经验对这个产品进行预测。这个团队认为Bing Image Creator可以轻易复制艺术家的创作风格,这将会威胁艺术家的生存。研究人员在对Bing Image Creator进行测试时,发现只要在输入中输入一些相关信息,如艺术家的姓名、艺术家的绘画、摄影以及雕塑等作品,Bing Image Creator最终生成的图像很难与艺术家原始创作的艺术品区分出来。

这样的话,艺术家的品牌形象和个人财富将会受到损失,艺术家将会起诉微软,这不仅给微软带来经济损失,也会带来巨大的社会负面效应。

此前为了发展人工智能应用,微软给OpenAI投资了几十亿美元。加强这种合作,微软再次给OpenAI投入巨资,到目前为止,微软已经投资给OpenAI的资金已达110亿美元。按道理说,微软应该继续加强对人工智能的规则制定和监管。

微软这样做的目的,就是为了打败谷歌搜索。微软将ChatGPT嵌入到必应搜索是第一步。此前,由于谷歌Bard犯错,让微软捡了一个便宜,令ChatGPT更加地出名。可是好景不长,必应中的ChatGPT也犯了一些错误,为了能够获得更多的用户,微软轻描淡写地躲过了这次危机。

现在,微软打算将ChatGPT嵌入到所有产品中,因此需要更多的开发人员去完成这些工作,分拆一些不重要的部门。而道德和社会团队的一些成员将会被转移到其它部门,那些被微软认为没有价值的员工将会被淘汰。

为了从谷歌那里抢走更多的份额,微软开始搏一把,放松对人工智能产品的监管。将专业的道德和社会团队拆撤,将工作交给非专业的人工智能办公室。微软的人工智能产品将会面临更多的风险,虽然现在裁撤掉这个部门对微软来说有一点益处,但是从长期的角度来看,微软可能会弊大于利。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230314A060FS00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券