欧盟《人工智能法案》中的监管沙盒

栏目:新闻中心 发布时间:2024-10-22来源:欧宝体育娱乐app官方

  沙盒的概念越发火热。沙盒的原义是指在隔离风险的环境中试验有风险的软件。由此发展出了监管沙盒的概念。监管沙盒同样在可控环境当中试验新的产品和服务。只有通过试验,才能投入市场。监管沙盒体现了安全与发展的平衡。受控环境满足了安全的前提。试验而非“一棍子打死”,则是鼓励发展的体现。

  欧盟正在探索如何让监管沙盒成为AI监管的重要部分。一方面,立法机关正在争论《人工智能法案》(以下简称《法案》)中监管沙盒的具体写法。另一方面,各成员国也在开展监管沙盒试点,已经有一些成果。

  《法案》的监管沙盒规则集中在第53-54a条。此外,第3条第44h项定义了监管沙盒,鉴于部分第71-72b条进一步说明了监管沙盒的立法目的和具体含义。综合这些条款的立法进展,监管沙盒的核心规则可以大致分为三个部分:定义和范围、个人数据的相容目的处理、附有条件的推定合规和尽职免责制度。

  根据《法案》,监管沙盒是指:“由公共机关所建立的受控环境,在创新的AI系统投放市场,或者根据由监管机关监督的具体计划投入到正常的使用中之前,在特定的时间内为其安全地开发、测试和验证提供便利。”由此能够具体说明三点。首先,建立监管沙盒的主体是各成员国公共机关。其次,根据第53a条第2款,监管沙盒应确保透明、广泛、公开的参与。最后,监管沙盒既包括封闭环境中的开发、测试和验证,也为真实世界中的开发、测试和验证留下了空间。

  人工智能系统的创新需要处理个人数据。先前,欧盟《通用数据保护条例》对超出原始处理目的处理个人数据的规定较为严格。《法案》有所突破。出于保障医疗、保护自然环境和关键基础设施等公共利益目的,可以在严格保障个人数据安全的前提下实施处理。需要采取的保障措施最重要的包含在隔离环境中处理数据和沙盒结束以后删除数据。这是《法案》促进发展的主要条款之一。

  《法案》还通过建立推定合规和尽职免责制度,逐步加强促进发展的力度。根据第53条第1f款,顺利完成沙箱项目的人工智能即推定为符合《法案》的要求。这一相当“慷慨”的规定旨在为提供者参与监管沙盒提供充分的动力。第53条第4款则是又一颗“定心丸”。根据本款,只要监管沙盒的参与者遵从第53条其他各款,并且善意地遵从有关公共机关的指导,就不会遭到行政罚款的处罚。换句话说,就是普遍开放参与机会,过程没有处罚风险,结果获得监管背书。

  当前,欧盟通过两种方法推进监管沙盒项目的试点。一是由西班牙、法国等成员国来试点,二是和挪威、瑞士等关系紧密,同样正在试点的国家互通有无。进度不一。西班牙的监管沙盒还在筹划阶段,预期将于今年11月发布报告。法国的试点同样处在筹划阶段。在欧盟之外,挪威的Ruter试点项目形成了细致的报告。瑞士的创新沙盒还在进行当中,预计将于2024年发布报告。

  尽管西班牙和法国的监管沙盒项目都处在筹划阶段,西班牙推进得更快一些。今年5月,西班牙开始对实施监管沙盒的皇家敕令征求意见。敕令颇为详尽。一方面,明确监管沙盒一般适用于生物识别、关键基础设施和教育培训等8个领域的高风险AI系统。通用AI和基础模型也属于适合使用的范围。另一方面,敕令细化了《法案》各款对项目准入、文件提交、风险管理和准出条件的要求。在这些领域内的试点将很快开始。正逢西班牙担任欧盟理事会轮值主席国,对《法案》立法有重要影响。西班牙沙盒的进展也就特别重要。

  法国的监管沙盒在2022年开始试点,目前有5家企业正在参与。教育行业是试点的重点领域。法国数据保护当局在监测、评估风险的同时,也会为参与公司可以提供一定的技术和人力支持。

  其次简介挪威监管沙盒的Ruter项目报告和瑞士的创新沙盒。Ruter是一家公有企业,也是挪威主要的公共交通服务提供者。Ruter计划在其运营的应用中上线推荐出行方式的AI算法。为此,需要在监管沙盒中评估这一功能的风险,特别是个人数据保护的风险。项目最终生成的报告细致地评估了算法在研发和使用阶段产生的风险。研发阶段的风险主要是透明度不足,一定要通过加强对算法逻辑的披露来补救。使用阶段的风险大多数来源于基于用户数据开展统计和训练算法,一定要通过实施严格的假名化来补救。

  瑞士的创新沙盒目前包括5家企业。和其他几个国家的项目类似,这一些企业分别从事无人驾驶农机、无人机、机器翻译、作业纠错和停车调度等领域的研发。

  尽管立法机关围绕监管沙盒的规则设计已形成了一定共识,始终还有一些分歧一定要通过立法谈判来解决。这样的争议最重要的包含三个方面:一是由哪些公共主体负责设立、运营监管沙盒;二是在真实世界中开发、测试和验证AI系统的问题;三是进一步澄清与个人数据保护存在交叉的规则。

  监管沙盒的设立、运营主体的设定涉及多个角度的问题。既有欧盟和成员国的权力问题,也有成员国内部的权力配置问题,还有欧盟和成员国彼此合作时的权责分配问题。争论很激烈。目前来看,监管沙盒设在成员国层面,同时各国在联盟指导下密切合作,是比较现实的方案。

  是否允许在真实世界中开发、测试和验证人工智能也是争论很激烈的问题。如果允许,一种原因是监管的极大松动。甚至可以说,实现了监管目标和产业实践的极大对接。另一方面也是监管的极大退让。旨在规制风险的法律最终允许尚未充分成熟的技术与社会直接互动。最终答案将取决于妥协交换是否顺利。

  监管沙盒与个人数据保护的交叉,在法律技术上颇为精致,在实践中也至关重要。除了医疗、环境和关键基础设施,还有别的许多涉及重要公共利益的问题有待谈判。即使能够澄清公共利益的具体含义,在监管沙盒中处理个人数据是不是能够基于同意之外的合法性基础,也是各方在谈判中寸步不让的争点。

  笔者认为,对我们国家的人工智能立法来说,《法案》有四点值得参考。首先,关于监管沙盒的设立和运用,同样需要妥善处理央地之间和地方之间的权责配置;其次,为增强鼓励发展的力度,需要在开发普遍参与的同时,充分隔离试验过程中和试验结束后的法律风险;再次,从试点来看,即使是相对复杂的人工智能,监管也能达到相对深入的穿透程度;最后,人工智能立法总是需要处理与个人隐私信息、数据、平台和网络安全等领域的法律的交叉问题,监管沙盒也不例外。

  (作者系同济大学法学院助理教授、上海人工智能社会治理协同创新研究中心助理研究员)