北京时间 6 月 8 凌晨,Google CEO 桑达尔 · 皮查伊(Sundar Pichai)宣布了他们使用人工智能的七项原则。如果单纯从技术角度考虑,该如何实现呢?

一个短篇一个短篇提问于
朝歌修改于

七项原则如下:

1. 有益于社会

新技术的扩展对社会的影响越来越大。AI 领域的进展将对医疗、安全、能源、交通、制造业等大量行业带来革命性影响。谷歌考虑 AI 技术的潜在开发和使用,以及大量社会和经济因素,决定将继续进行其认为整体益处远远大于可预见风险和弊端的领域。

2. 避免创造或增强偏见

AI 算法和数据集能够反映、强化或减少偏见。谷歌意识到区分公平和不公平偏见不总是那么简单,且在不同文化和社会背景下有所不同。谷歌将寻求避免对人类的不公平影响,尤其是在敏感话题方面,如种族、民族、性别、国家、收入、性取向、能力和政治或宗教信仰。

3. 为保障安全而建立和测试

谷歌将继续开发和应用强大的安全保障和安全的实践以避免不希望发生的导致风险的结果。谷歌将把 AI 系统设计得适当的谨慎,并探索按照 AI 安全研究的最佳实践来开发的方式。在合适的案例中,谷歌将在受限的环境中测试 AI 技术,并在部署之后监控它们的运行。

4. 对人们有说明义务

谷歌将设计能为反馈、相关解释和上诉提供合适机会的 AI 系统。谷歌的 AI 技术将服从合适的人类指导和控制。

5. 整合隐私设计原则

谷歌将把隐私原则整合进 AI 技术的开发和使用中。将为通知和准许提供机会,鼓励架构中结合隐私保护,并对数据的使用提供合适的透明度和控制。

6. 坚持高标准的科学探索

技术创新根植于科学方法和开放式的调查、严谨的思考、诚信和合作。人工智能工具可能在生物、化学、医药、和环境科学等关键领域具有开拓新科学研究和知识的潜力。谷歌致力于促进人工智能的发展,追求高标准的科学探索。

7. 根据原则确定合适的应用

许多技术有多种用途。谷歌将努力限制可能有害或滥用的技术应用。

至于如何从技术上做到,我觉得主要有以下几个关键步骤:

1、设置相关预警。有点类似科幻电影《I Robot》里的机器人三大定律: 第一,机器人不得伤害人类,也不得坐视人类受到伤害而袖手旁观; 第二,机器人应服从人类的一切命令,但不得违反第一条; 第三,机器人应保护自身的安全,但与第一、二条相抵触者除外。

具体到技术层面,就是设置相关的预警信息,如果达到相关门限值的话,就需要采取相关措施。

2、对于人们的隐私信息,如家庭住址,银行卡号之类的需进行脱敏处理;

3、在进行相关项目的探索时,明确目的,不做违反边界的事。

回答过的其他问题

距离人工智能完全替代教师批改作文还有多远?

我认为目前能达到的人工智能是弱人工智能,也就是起到一个辅助的作用,并不能完全达到人脑的水平。比如老师们可以用它当一个辅助工具,给学生提供一个大概的分数,如果要是作文里涉及到更深层次的东西,能够引发共鸣、能够让人去思考,可能使用人工智能去批改就会出现较大的偏差。 作文是一个综合性的...... 展开详请

tabBar导航栏图标大小建议?

所属标签

扫码关注云+社区

领取腾讯云代金券