作者 | 量子位 李林
今天AI领域都在谈论一件事。DeepMind表示,很自豪成为Asilomar人工智能原则的签署者,这是一个AI和伦理方面的重大进步。而硅谷钢铁侠伊隆-马斯克指出,顶级的AI研究人员在人工智能发展方面达成一致:开发对人类有益的人工智能。
这个原则在今年的Asilomar大会上达成。细节如下:
AI研究的目标,不是创造不受指导的智能,而是创造有益人类的智能。
对人工智能的投资,应确保相关研发是有益人类的,包括计算机科学,经济学,法律,伦理和社会研究中的棘手问题,例如:
如何使未来的AI系统足够强大,不会发生故障或被黑客入侵? 如何通过自动化实现社会繁荣,同时维护人类的资源和目的? 如何推动法律制度更公平、更有效率,跟上AI的步伐,以及管理与AI相关的风险? AI应该与什么样的价值观相一致,它应该具有什么法律和伦理地位?
AI研究人员和决策者之间应该建设性和健康的交流。
应该在AI的研究人员和开发人员中培养合作,信任和透明的文化。
开发AI系统的团队应积极合作,以避免削减安全标准。
AI系统在其整个使用寿命期内应安全可靠,并在可行的情况下可验证。
如果一个AI系统造成损害,应该能够确定原因。
任何自主系统参与司法决策都应提供令人满意的解释,并由人类权利机构审核。
设计师和建设者,是先进人工智能系统的使用、滥用和行动道德意义上的利益相关者,他们有责任也有机会去塑造这些意义。
设计高度自治的人工智能系统时,应该使它们的目标和行为,在整个运营过程中与人类价值观保持一致。
人工智能系统的设计和操作应符合人类尊严、权利、自由和文化多样性的理想。
人们应该有权访问,管理和控制他们产生的数据,因为AI系统有能力分析和利用这些数据。
AI对个人数据的应用不得不合理地限制人们的真实或感知的自由。
AI技术应该使尽可能多的人受益。
AI创造的经济繁荣应该广泛分享,以惠及全人类。
人类应该选择如何以及是否将决定权委派给人工智能系统,以完成人类选择的目标。
控制高度先进的人工智能系统所赋予的权力,它应尊重和改善而不是颠覆社会健康所依赖的社会和公民进程。
应该避免进行致命自主武器的军备竞赛。
因为没有共识,我们应该避免关于未来人工智能能力上限的强烈假设。
高级AI可以代表地球上生命历史的深刻变化,应该通过相应的关怀和资源进行规划和管理。
人工智能系统造成的风险,特别是灾难性或存在性风险,必须根据其预期影响进行规划和缓解的努力。
被设计成以递归方式进行自我完善或自我复制,并可能导致快速提高质量或数量的AI系统,须采取严格的安全和控制措施。
超级智能只应当为广泛共享的伦理理想,为了全人类的利益而不是一个国家或组织而服务。