前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >科技公司开始重视AI伦理,他们都是怎么做的?

科技公司开始重视AI伦理,他们都是怎么做的?

作者头像
AI科技大本营
发布2018-07-23 15:52:37
4250
发布2018-07-23 15:52:37
举报

作者 | DavidZh

出品 | AI科技大本营

风口浪尖上的 Facebook 在刚刚结束的 F8 开发者大会上宣布,将组建一个专门的 AI 伦理团队跟公司里各项产品和服务合作,以此来保证 AI 的公正性。

Facebook 的一位科学家向 CNBC 确认了这一消息,但拒绝透露这个团队的人数规模。

从产品来看,Facebook 决定先从 Messenger 聊天应用中的翻译功能入手。在这个 AI 伦理团队的协助和监督之下,当 Messenger 用户使用这个功能时需要确保根据用户发送的文本或语音翻译过来的内容准确而公正。

根据最新数据,Facebook Messenger 的月度活跃用户数已经超过 20 亿,拥有全世界多样性最高的用户群体。他们的语言、文字和文化传统千差万别,由 AI 驱动的翻译等功能有必要保证其中立性。

这只是今年 3 月剑桥分析公司(Cambridge Analytica)泄露 8700 万用户隐私数据之后,Facebook 做出一系列调整中的一部分。

去年,Facebook 内部研发的一个名叫 Fairness Flow 的算法工作流就已经整合到 FBLearner Flow 平台中了,主要作用是更便捷地训练 AI。

实际上,关于 AI 的伦理问题,至少从去年开始就有大科技公司关注并采取行动了。

早在 2011 年,微软、IBM 和多伦多大学就已经意识到 AI 领域非常需要克服偏见之后的公正性(fairness)。从技术层面解释,这是因为 AI 中大多数算法模型的工作方式都是黑盒子,研究人员通常只知道输入内容和输出的结果与质量,但无法解释清楚 AI 算法内部的工作机制。如果 AI 研究者利用带有偏见的数据集或者在调整参数时加入自己的偏见,都有可能导致 AI 输出结果的不公正。

为了解决这个问题,2014 年微软研究院成立了一个名叫 FATE(Fairness Accountability Transparency and Ethics in AI)的项目,旨在增加 AI 的公正、可靠和透明度。这个项目团队每年会组织一次名为 FAT in ML 的专题讨论会,邀请 AI 领域内多位资深技术专家分享新的研究进展,到今年已经办到第五届。

而 Google 花重金收购来的英国公司 DeepMind 也在 2017 年成立了 DeepMind Ethics & Society 项目,并提出了两个目标:

  • 帮助技术人员践行道德
  • 帮助社会预测和指导 AI 的影响,让所有人受益

目前,这个项目组共有四名成员,其中 Julia Angwin 已经在犯罪学领域对算法的种族偏见(https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing)做了十分深入的研究。

尽管如此,Google 内部科学家和研究人员对 AI 的看法仍然观点不一。一位名叫 Ali Rahimi 的 Google 工程师在今年 4 月底的一次会议上表示,AI 算法通过不断试错来提高自己,有点儿像“炼金术”。

Ali Rahimi 说:“AI 研究领域有极其痛苦的部分,我们中的很多人都觉得好像在操作一项外星来的技术。”

从应用层面来看,一套 AI 算法或模型正式形成之后,就只具备一种用途。比如,基于计算机视觉开发的桃子分拣算法,就只能分拣桃子,而不是黄瓜。

今日头条用于信息流推荐的算法模型,不能用在安防摄像头上做视频监控。

本质上,这些例子都反映出了 AI 算法不可复用、迁移难度极高的特点。

对于科技公司而言,AI 不仅不是万能灵药,还是一项很有风险的技术。

在 AI 的“黑盒子”可以被清楚理解和完整解释之前,一个值得参考的建议是,先确立 AI 的基础法则。就好比上世纪 50 年代,阿西莫夫提出的机器人三定律一样,确保 AI 要为人类整体带来福祉,而不是增强人类族群本身的偏见、歧视和黑暗面。

今年 4 月,英国上议院(House of Lords)发布的一份报告(https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf),确立了五项有关 AI 基本原则,或许能对科技公司和各个垂直行业有所启发:

  • 要为人类的共同利益开发人工智能。
  • 人工智能应该遵循可理解性和公平性的原则。
  • 人工智能不得削弱或破坏个人、家庭或社区的数据权利和隐私。
  • 所有公民都有权接受教育,使他们能够在精神上、情感上、经济上与人工智能一同发展。
  • 决不能将伤害、摧毁或欺骗人类的自动化能力赋予人工智能。
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-05-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技大本营 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
语音识别
腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档