首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

看看美欧人工智能立法的进展,美国提议明确要求,欧盟分类与分层

美国人工智能立法“明确要求”是关键,“明确”之外是自由空间

由微软支持的技术倡导组织BSA正在倡导在美国国家隐私立法中对人工智能使用进行监管。BSA代表Adobe、IBM和Oracle等商业软件公司。但谷歌目前是美国高级人工智能的另一个关键参与者,它不是BSA会员。

在这项立法推动中,许多美国国会议员都表示有兴趣和紧迫性,以确保监管与人工智能技术的快速发展保持同步。议员奥尔布赖特说:“这不是关于人工智能的每个问题的答案,但它是国会可以完成的关于人工智能的重要问题的重要答案。”

BSA正在倡导四项关键保护措施:

国会应该针对公司何时必须评估人工智能的设计或影响进行明确要求。(Congress should make clear requirements for when companies must evaluate the designs or impact of AI.)

当使用人工智能做出“具有后果的决定”时,这些要求应该发挥作用,国会也应该对此做出定义。(Those requirements should kick in when AI is used to make “consequential decisions,” which Congress should also define.)

国会应指定一个现有的联邦机构来审查关于遵守规则的公司认证。(Congress should designate an existing federal agency to review company certifications of compliance with the rules.)

应要求公司为高风险人工智能制定风险管理计划。(Companies should be required to develop risk-management programs for high-risk AI.)

虽然相关文件的细节不得而知,但是从上面的几项可以看出,BSA建议的出发点对软件公司和技术更加友好,因为一旦规则确定而且明确,公司就可以在没有明确定义的空间自由发挥了,唯一的羁绊就是自己的风险管理计划。这几天刷屏的陆奇博士关于人工智能技术发展的感慨“(我读)论文实在是跟不上,代码实在是跟不上”,人工智能技术发展是在竞赛,科技公司竞相开发大模型和通用模型,落地场景探索如火如荼,如同之前的互联网和移动互联网热潮。可以想象,如果“要求明确”,可能是给相关公司充足的发展空间,除非这些要求挤占了太多的空间。

欧盟人工智能立法从分类到分层,通过实施时间给自由空间

而最近,欧盟立法者正在接近如何解决生成性人工智能的问题,因为他们努力确定他们的谈判立场,以便下一阶段的立法谈判能够在未来几个月内开始。

欧盟理事会早在12月就通过了对人工智能监管条例的立场。但是,在成员国在很大程度上赞成观察生成性人工智能的发展再决定如何立法——但是欧洲议会议员看起来会提议在相关法案本身中增加硬性要求。

最近几个月,科技巨头的说客们一直在朝着相反的方向推进,谷歌和微软等公司主张让生成性人工智能从即将到来的欧盟人工智能规则中获得豁免。

关于欧洲议会在该法案中对生成人工智能技术的立场,相关人员暗示欧洲议会议员正在倾向于一种分层方法——事实上是三层——一层是解决整个人工智能价值链的责任;另一层是确保基础模型获得一些护栏;第三层是解决与生成模型相关的特定内容问题,例如OpenAI的ChatGPT。

根据欧洲议会议员目前的想法,这三层之一将适用于所有通用人工智能(GPAI)——无论大小;基础模型还是非基础模型——并专注于调节人工智能价值链中的关系。需要有一定程度的规则,说’实体A’将一般用途人工智能技术推向市场,对下游的‘实体B’负有义务,该实体B购买一般用途人工智能并实际赋予其目的。因为实体B给了一般用途人工智能一个可能成为高风险的目的,所以实体B需要某些信息。为了遵守人工智能法案,需要解释模型是如何训练的,提供数据集与偏差之间准确描述。

第二个层将解决基本模型的问题——为这些基本模型的制造商设定一些具体义务。

鉴于提供基础模型的公司的实力(比如OpenAI),鉴于他们的训练方式,鉴于他们的多功能性,这些基础模型的提供者需要做某些事情——无论是事先还是在模型的生命周期内。这与透明度有关,同样,这与他们如何训练,在上市前如何测试有关。本质上来说,就是作为这些模型的开发人员,他们的尽职尽责程度应该是什么?

欧洲议会议员建议的第三层,专门针对生成人工智能——这意味着针对通用人工智能/基础模型的子集,如大型语言模型或生成艺术和音乐人工智能。在这方面,致力于确定议会任务的立法者认为这些工具需要更具体的责任,比如涉及到它们可以产生的内容(如早期发现的虚假信息和诽谤信息风险),以及与人工智能训练用到的数据的版权问题。

欧盟委员会在两年前提出了全面的人工智能立法草案,提出的原始草案通过将应用程序分类为不同的风险区间来规范人工智能。根据该计划,大部分人工智能应用程序将被归类为低风险——这意味着它们没有任何法律要求。另一方面,少数不可接受的风险用例将被完全禁止。然后,在中间,该框架将对第三类应用程序适用规则,这些应用程序中存在明显的潜在安全风险(和/或对基本权利的风险),尽管这些风险被认为是可管理的。

这个欧盟之前提议《人工智能法案》包含一套“高风险”类别列表,涵盖了人工智能用于一些涉及安全和人权的领域,如执法、司法、教育、就业医疗保健等。属于这一类别的应用程序将受到上市前和上市后合规制度的约束,在数据质量和治理等领域承担一系列义务;以及减轻歧视——如果违反要求,可能会被处罚。

该提案还包含另一个适用于聊天机器人和深度伪造等技术的中间类别——人工智能驱动的技术,这些技术引起了一些担忧,但在委员会看来,没有高达高风险的情况。此类应用程序不会触发草案中全面的合规要求,但提案要求这类应用程序满足低风险应用程序不需要的透明度要求。

即便如此,欧盟《人工智能法案》可能不会在2025年之前生效——甚至更晚,这取决于立法者是否决定在执法前给应用程序制造商一年或两年的发展空间。

知己知彼,兼听则明,知兼分享海外产业科技动态。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230425A04H6Y00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券