前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >OpenAI 设立 Superalignment 团队:让 AI 对齐人类价值观,预防潜在风险

OpenAI 设立 Superalignment 团队:让 AI 对齐人类价值观,预防潜在风险

作者头像
深度学习与Python
发布2023-09-08 14:04:34
2510
发布2023-09-08 14:04:34
举报
文章被收录于专栏:深度学习与python

作者 | Daniel Dominguez

译者 | 平川

策划 | 丁晓昀

OpenAI 宣布成立一个专门的 Superalignment 团队,旨在防止流氓 Superintelligent AI 的出现。OpenAI 强调了使人工智能系统与人类价值保持一致的必要性,以及主动采取措施防止潜在危害的重要性。

创造符合人类理想和目标的人工智能系统的过程被称为人工智能校准。这需要确保 AI 系统理解伦理概念、社会标准和人类目标,并据此采取行动。AI 校准旨在缩小人类需求和福祉与 AI 系统目标之间的差距。通过将 AI 与人类价值相结合,减少人工智能的危害,增加其潜在的优势。

OpenAI 的 Superalignment 团队将专注于促进对 AI 校准的理解和实现。这是一个确保 AI 系统按照人类价值和目标行事的过程。通过研究强大的校准方法和开发新技术,该团队旨在创建在其整个发展过程中始终以人为本的人工智能系统。

OpenAI 表示:“我们的目标是在四年内解决超级智能校准的核心技术挑战。”

OpenAI 联合创始人兼首席科学家 Ilya Sutsker 和校准主管 Jan Leike 表示,像 GPT-4(ChatGPT 的基础)这类模型当前使用的 AI 校准技术,都依赖于从人类反馈中进行 强化学习。不过,这种方法依赖于人类的监督,如果 AI 的的智力超越了人类,变得比它的监督者更聪明,这种方法可能就行不通了。Sutsker 和 Leike 进一步解释说,其他一些基本假设,比如在部署过程中有良好的泛化属性,或者在训练过程中无法检测和削弱监督,在未来也可能被打破。

AI 安全 将成为一个重要的产业。世界各国政府正在采取措施制定法规,解决人工智能各个方面的问题,包括数据隐私、算法透明度和伦理考量。欧盟正在制定全面的《人工智能法案》,美国也在采取措施制定《人工智能权利法案蓝图》。在英国,基金会模型人工智能工作组已经成立,旨在研究调查人工智能的安全问题。

原文链接:

https://www.infoq.com/news/2023/07/openai-superalignment-ai-safety/

相关阅读:

OpenAI 或于 2024 年底破产?大模型太烧钱了,快把 OpenAI 烧没了!(https://www.infoq.cn/article/datmEqVmS134ewFO7wel )

OpenAI 推出网络爬虫 GPTBot,引发网站抵御潮:信息被爬走就很可能意味着永远无法删除 (https://www.infoq.cn/article/IzPVkcZg0jeHGcD4xP7H )

声明:本文为 InfoQ 翻译,未经许可禁止转载。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-08-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 InfoQ 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档