《欧盟人工智能法案:建立人工智能国际合作的后续步骤和问题(翻译).docx》由会员分享,可在线阅读,更多相关《欧盟人工智能法案:建立人工智能国际合作的后续步骤和问题(翻译).docx(6页珍藏版)》请在第一文库网上搜索。
1、政策简IBROOaaNG2023年5月欧洲联盟人工智能法琮合作的下一步措施和问题JoshMe1tzerAaronTie1emans导言2023年4月,欧盟委员会提交了关于欧盟人工智能监管框架的提案。人工智能法是全球首次尝试对人工智能进行水平监管。人工智能(A1)法的域外适用及其可能对决策者产生的示范效应(所谓的“布鲁塞尔效应”),意味着人工智能(AI)法将对全球制定人工智能(A1)条例以及努力在人工智能(A1)方面建立国际合作产生广泛的影响。以下概述了人工智能(AI)法在成为法律之前逐步通过欧盟系统的下一步步骤、人工智能(A1)法中最受关注的关键问题,以及人工智能(AI)法如何影响人工智能领域
2、的国际合作。本政策简报取材于由JoshMeIIZer、CameronKerry和AndreaRenda联合牵头的人工智能合作多方利益攸关方论坛(FCAI)的讨论,以及最初发表于2023年10月的人工智能合作论坛报告Strenq1heninq人工智能国际合作(AI)中的分析。人工智能法的下一步措施欧洲联盟委员会的人工智能法草案以人工智能高级别专家组(AIH1EG)所做的工作为基础,并得到利益攸关方和专家对委员会进程的投入。关于人工智能(AD法的下一步内容:委员会将提案草案提交欧洲议会(议会)和欧洲联盟(理事会)理事会(理事会),启动欧盟的普通“1eqiIative程序。虽然下一步从技术上讲,是议
3、会开始对人工智能(AI)法草案进行一读,在该法草案中,委员会的建议要么在通过,要么在提交理事会之前加以修正,但有几个中间步骤对就该立法达成共识至关重要。欧盟理事会由来自每个欧盟国家的政府部长组成,是欧盟议会的主要决策机构之一。在议会审议委员会的拟议条例之前,理事会往往通过一项总方针文件,向议会说明理事会的立场,目的是“加快立法程序”,并在一读前促进议会与理事会达成协议。2023年11月,根据总方针,理事会斯洛文尼亚主席团公布了对委员会拟议的人工智能(AD法上半部分的拟议修正案,今年2月(2023年),理事会(现由法国担任主席)提出了对人工智能(AD法下半部分的修正案。理事会的这些修正案为议会审
4、议人工智能法提供了重要的参考。在欧洲议会中,管辖委员会负责审查委员会提出的人工智能(AD法,并编写自己的报告,提出修改和修订人工智能(AI)法。议会指定了两个委员会,共同负责审查人工智能法一一由BrandoBenifei担任报告员的国内市场和消费者保护委员会,以及由DragOSTUdoraChe担任报告员的公民自由、司法和内政委员会。国内市场与消费者保护与自由、司法与内政(1IBE)于四月发表报告草稿,涉及对委员会建议的拟议修订。除了国内市场和消费者保护与自由、司法和内政部、法律事务委员会、工业、研究和能源委员会(工业、研究和能源委员会)以及文化和教育委员会外,还将提供投入。目前尚不清楚这些议
5、会委员会将何时完成其工作,尽管国内市场和消费者保护委员会(IMCO)和自由、司法和内政委员会(11BE)的目标是在2023年秋季之前通过一项联合报告。在通过本报告后,联合委员会可决定进行一系列非正式联系,称为三重对话,议会和理事会将各自版本的人工智能法与委员会作为调解人加以协调。预计理事会和议会之间的折衷案文将于今年晚些时候提出。一个成功的结果将是,一项临时人工智能(AI)法回到了议会和理事会,预计将批准三方会议的结果。在议会中,临时人工智能(A1)法需要得到联合委员会的批准,然后由全体议会进行辩论和投票,然后通过人工智能(AI)法成为法律。人工智能(AI)法案:国际统一还是分歧?根据委员会拟
6、议的人工智能(AD法和议会迄今开展的工作,一系列热键问题将最终膨响到人工智能(AD法,其决议也将对人工智能监管方面的国际合作产生影响。其中最重要的问题是如何定义人工智能是什么,以及基于风险的方法的范围。如何实施人工智能法对于成功实施如此庞大的监管框架也至关重要。下文将阐述这些关键问题,以及这可能对人工智能方面的国际合作意味着什么。我们的人工智能合作论坛(FCAI)关于人工智能国际合作的报告(AD深入探讨了建立人工智能(A1)国际合作的机会,包括人工智能法在这方面的作用。委员会的建议包括它希望完成的人工智能法的具体目标。这些措施包括管制高风险人工智能(A1)和禁止被认为风险太大的人工智能(AI)
7、,同时促进人工智能(AD的投资和创新。这些管制人工智能(AI)和鼓励人工智能(AI)投资和创新的双重目标可能正在加强或加剧紧张局势,这取决于最终结果。有两个议会委员会审议人工智能(AD法的决定反映了取得平衡的必要性,该法通常认为自由、司法和内政更注重对基本权利的影响,而国内市场和消费者保护则更注重促进创新。定义什么是人工智能人工智能(AI)的定义(或者说,人工智能(AI)系统)将决定该条例的范围。狭义的定义将使某些类型的人工智能(A1)系统脱离范围,然而,过于宽泛的定义可能会笼罩普通算法系统,而这些系统不会产生人工智能(AI)条例所关注的风险或损害类型。人工智能合作论坛报告(FCAI)概述了其
8、参加国政府提出的定义。虽然人工智能“无罪定义”,但已经为共同定义人工智能做出了一些努力。许多国家己经在框架、准则或拨款语言中定义了人工智能(AI),但人工智能法(AI)中的定义是为监管目的对人工智能(AD的第一个定义。人工智能(AI)法最终通过的定义很可能成为其他国家其他人工智能(A1)条例的参考点,有助于在全球范围内达成共识。因此,委员会有希望将其初步定义建立在经合组织的定义之上,经合组织己经促进了这方面的一些趋同。然而,目前尚未确定最后结果。安理会从2023年11月开始的拟议修正案包括人工智能(AI)的修改定义,将条例的范围缩小到机器学习。考虑到联合委员会的报告草稿支持对人工智能(AI)的
9、广泛定义,关于人工智能的定义(AI)的辩论很可能会继续进入这一进程的三角阶段。根据人J?智能(AI)法第3(1)条,人工智能(AI)系统是“利用附件一所列一种或多种技术和方法开发的软件,对于给定的一组人为目标,可以产生诸如内容、预测、建议或影响它们所互动环境的决定等产出。”基于风险的人工智能监管方法人工智能(A1)法承诺采取“相称”的基于风险的办法,即“只有在人工智能(AD系统有可能对基本权利和安全构成高风险时才施加监管负担”。针对特定部门和应用,人工智能法将风险分为四级:不可接受的风险、高风险、有限风险和最低风险。议会和理事会正在审议的一个关键问题将是对高级申请,即被认为具有不可接受的风险(
10、如社会评分)或高风险(如在个人发展或个性化教育中与儿童互动的人工智能)的管理和分类。在全球范围内,人工智能(AI)监管应该基于风险,这得到了许多国家政府的支持。2023年人工智能合作论坛报告加强国际人工智能合作发现,大多数政府参与者“明确地”赞同对人工智能监管采取基于风险的做法。例如,在美国,美国管理和预算办公室人工智能应用管理指南包括“风险评估和管理”是其十大原则之一。然而,从对风险评估的高级别承诺转向其应用,将揭示出不同的方法,如果不加以处理,就可能导致采用不同的本地化方法来评估人工智能(AI)的风险和风险管理,从而为人工智能(AD的开发和使用带来成本。在美国,美国国家标准与技术研究院(N
11、IST)正在开发一个人工智能风险管理框架(A1RMF),该框架可以促进识别和评估风险的方法的一致性。尽管如此,美国和欧盟在人工智能(AI)风险评估方面已经出现了新的分歧。例如,人工智能(A1)法案将人工智能(AI)系统划分为四个风险类别,可能不会反映在美国的做法中。此外,美国己经强调,对人工智能(AI)风险的任何评估都需要考虑到人工智能(A1)系统改善现有风险的程度,而欧盟人工智能(A1)法案目前没有明确解决这一问题。执行和自我评估机制另一个关键问题在于人工智能(AI)法案的治理结构。为了执行这项新规定,欧盟将设立一个新的欧洲人工智能委员会(EAIB),由欧洲数据保护主管、欧盟委员会和国家主管
12、组成,该委员会类似于通用数据保护条例(GDPR)监督机制。RapporteurTudorache引用的欧洲人工智能委员会(EA1B)的一个关切是,它将导致零散的执行格局,成员国在执行人工智能(AD法案方面的能力和意志各不相同。在议会的人工智能(AI)报告草稿中,两位报告员都同意加强欧洲人工智能委员会(EAIB)的执法作用,以补充国家一级的执法工作,但确切的机制(并进而,对这种措施的支持)尚未确定。关于如何实施人工智能(AI)法的另一个悬而未决的问题涉及委员会提出的对不同类型高风险系统的符合性评估要求。按照目前的设计,对于使用产品安全部件(如医疗设备或汽车)的人工智能系统,会员国的国家主管当局(
13、如负责监督、实施和执行条例的政府机构)将指定第三方通知机构进行符合性评估。然而,对于“独立式”高风险人工智能系统,只需要行业自我评估。这种办法可能带来各种办法和结果,从系统是否高风险到遵守问题。部分由于这些关切,作为委员会、理事会和议会的一个咨询机构,欧洲经济和社会委员会建议,所有列为高风险的系统都必须进行第三方评估。这仍然是议会的一个症结所在,负责人工智能(AI)报告草稿的两名欧洲联合报告员之一布兰多贝内菲(BrandoBenefei)对自我评估是否足以保护消费者和基本权利仍持怀疑态度,而另一名联合报告员德拉戈斯图多拉希(DragoSTUdoraChe)则对存在行政障碍的公司负担过重表示关切
14、。合规费用也将成为争论的中心,特别是对中小型企业的影响。人工智能(A1)法案如何解决这些治理问题,将在几个方面影响国际合作。首先,人工智能(AI)法中的风险评估和符合性评估机制很可能“为人工智能(AI)审计标准国际市场的出现铺平道路”。在这种情况下,它可以帮助支持全球互操作方法来评估一致性。与此同时,各部门和欧盟成员国在人工智能(A1)实施方面的不一致或不同能力可能会阻碍与其他国家制定相互承认协议,而这种协议是促进人工智能(AI)贸易所必需的。同样,这是国际参与能够帮助欧盟了解其日益增长的数码产品公有制所带来的更广泛影响的地方。人工智能(A1)法还将影响人工智能(AI)标准的制定和使用,这招对
15、欧盟乃至全球的人工智能(A1)标准的制定产生影响。具体而言,对于高风险人工智能(AD系统,当这些人工智能(AD系统符合由指定的欧洲标准组织(ESO)即CEN、CENE1EC和ETS1开发的正式采用的“统一标准”时,“推定一致”。这种一致性的推定既会对人工智能(A1)标准提出要求,也会强烈鼓励设计符合这些标准的人工智能(AI)系统。然而,对欧盟标准的关注意味着,必须在以欧洲为中心的标准发展机制与需要全球、可互操作的标准之间取得平衡,以减少在全球范围内传播人工智能(AI)的障碍。人工智能法案及其大局人工智能(AD法中许多重要内容的动态和不稳定状态意味着,目前有一个窗口,供国际合作伙伴帮助告知欧盟如
16、何制定人工智能(AI)法,以实现管制人工智能(A1)的目标,以保护基本权利,支持国内创新和人工智能(AI)投资。在这方面,欧盟参与人工智能合作论坛(FCA1)及其加入全球人工智能伙伴关系(GPA1)和与经合组织人工智能政策观察站(OECD.AI)的合作是重要的参与点。最近,即2023年9月,将人工智能(AI)政策纳入欧盟-美国贸易和技术委员会(TTC),表明有可能进一步积极调整监管。此外,必须指出,人工智能法不存在于立法真空中。人工智能(AI)法是委员会更广泛的数字战略中的一项立法。特别是,今年4月通过的数据治理法和新提交的委员会关于新的数据法的提案也具有相关性,因为它们影响到公共和工业部门获得数据的机会。旨在开发欧洲云的欧盟GAIA-X项目也将影响数据的使用和存储,并对人工智能(AI)产生影响