AI安全与隐私保护,我们做得更多!

你是否放心把你的方向盘交给AI?

如果你在驾驶汽车的过程中看到这样的指示牌,是否会停下?所有考取了驾照的人给出的答案一定是:会。但是自动驾驶汽车可能不会。研究表明,黑客可以通过制造一些对抗性数据来欺骗自动驾驶汽车,例如在停车标志上增加一些遮挡物,让车中的图像识别AI将停车标志识别为限速45英里/小时,这样汽车将会继续保持行驶状态而造成交通事故。那么,你现在是否愿意把手上的方向盘交给AI?

你每天使用的应用是否正在监视你?

你有没有这种经历?在一些应用中搜索鞋子之后,各种网站就给你推送鞋子的广告。这是因为,应用厂商会用AI模型对你的搜索记录生成用户画像并向你推送定制化广告。你每天都在使用的各种APP是否在监视着你的一举一动?熟悉你喜好和习惯的AI会不会泄露更多你的隐私?在AI渗透入每个人日常生活方方面面的时代,我们要怎么保护自己的隐私?

电话对面和你说话的人到底是谁?

如果亲人打电话向你借钱,你是否会怀疑?毕竟电话对面的声音听上去就是亲人的声音。但现在的AI技术让亲人的声音也变得不可信。有组织通过AI合成,帮助发声困难的人打造出自己高还原度的声音。但骗子会通过骚扰电话录取亲人的声音后利用AI软件生成其他语音,从而完成电话诈骗。如果不能很好地监控和保障AI使用的目的,无论什么样的AI技术都可能成为“帮凶”。

从这些案例可以看出,虽然AI技术发展为我们的生活带来了很多便利,但同时也会带来一系列的安全与隐私问题:AI模型可能被攻击导致安全隐患、用户隐私可能泄露、产品使用目的被滥用等。因此,对于企业来说,AI的安全和隐私治理刻不容缓!

企业应该如何做?

AI的产品和应用涉及一个广泛的生态系统,同时也涉及广泛的市场参与者,每个市场参与者都分别属于该生态系统的不同部分和层次。这些不同的部分包括硬件(例如芯片、服务器、传感器等)、软件、应用的运营和维护、以及数据的处理和利用等。所以,AI的每项产品与服务都高度依赖于第三方技术来执行其功能。一方面,市场参与者的多样性可能会增加单个元素的缺陷,导致各个元素之间的相互影响问题也会相应增多。另一方面,消费者和用户也很难识别不同市场参与者的问题及其根源。

虽然各种法律法规和标准都为AI的安全与隐私提出了一些要求。如:2018年5月正式生效的欧盟的《通用数据保护条例》(General Data Protection Regulation,简称GDPR),ISO27001的信息安全管理体系,欧盟委员会(European Commission)人工智能高级专家组(High-Level Expert Group on Artificial Intelligence,AI HLEG)发布的正式版人工智能道德准则《可信赖AI的伦理准则》(ETHICS GUIDELINES FOR TRUSTWORTHY AI)、英国信息专员办公室(Information Commissioner's Office, ICO)发布的《AI审计框架》等。但AI产品应用的广泛性导致了AI相关的利益方无法单独对整个生态系统承担所有责任。AI相关的利益方应该建立起生态系统的责任和标准,与云服务需要建立责任共担模型一样,全行业共同治理,促进AI的健康快速发展,让AI的决策更令人放心,让AI的应用得到保障。

华为和你一起探讨

2018年10月,华为首次发布全栈和全场景的AI解决方案,并在过去的一年中取得了多样的进展与突破;同时,华为在共同治理AI安全和隐私方面也已经有了自己的系统性思考。华为将从全栈全场景AI解决方案的角度出发,一如既往地把安全和隐私置于成本、进度和特性之上,把安全和隐私融入AI整个产品生命周期,努力在整个AI生态系统的安全和隐私方面做得更多。

在2019年9月19日华为全联接大会中,以“打造全面的AI安全与隐私保障体系”为主题的安全与隐私峰会上,华为将会邀请行业中的专家一起探讨AI安全与隐私治理的问题。并且,华为会以白皮书的形式,分享这些思考和基于这些思考提出的AI安全与隐私治理框架,期待您的参与!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190825A09J9B00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券