首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

拒绝不公平!某校研究人员脑洞大开致力完善人工智能

导语:友谊之链不可继承,不可转让,不可贴上封条保存起来而不腐烂,不可冷冻在冰箱里永远新鲜。

【CNMO新闻】随着人工智能的逐渐升级,它开始能够处理复杂任务了,人们对人工智能的信任度直线飙升。但有些研究表明,人工智能算法还是会存在对性别和种族的偏见,这也引发了人们对其在关键领域使用的担忧。

拒绝不公平!某校研究人员脑洞大开致力完善人工智能,波士顿大学

波士顿大学科学家的最近表明示正试图建立一个用于检测和减轻自动决策中的问题行为框架。波大的大部分工作都建立在记录和减轻算法偏差的基础之上,他们致力研究如何减少自动化系统对不同人群的影响,以及他们是否能平等地对待这些人群。对于他们的挑战就是评估AI公平性的规则和指标。在他们的研究中,波士顿大学的科学家使用了2016年著名的ProPublica对COMPAS的调查数据进行测试,结果显示COMPAS对非裔美国表现出偏见。

波士顿大学的研究人员开发了不同的方法来评估和处理风险得分,这可以帮助减少误报,并对不同的人群显示出更多的公平性。他们技术的第一部分涉及为不同人群分别配置决策者和分类器,第二部分是改变自动决策者。在他们开发的技术中,他们允许处理算法引入不确定性。当决策者系统将一个案例标记为不确定时,它将经历一个不同的决策过程,这个决策过程可以是手动的,也可以由不同的自动化系统来处理。

文章已经写完了,分开也是必然的,虽然分别的时候总是难受的,但是不再相见不等于,我不会想念大家,也希望你们能想念小编,毕竟小编的文章在你们的脑海中留下了一丝的痕迹,可能有那么一天,你们会想起小编写的这篇文章,祝福你们,最后能不能给小编点点关注,可以的话,留下只言片语也好!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190201A0IWQK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券