评论文章
欧盟《人工智能法案》解读——对中国AI立法的参考价值

作者:金茂律师事务所  万波 律师  张月勤 律师助理 

前言

随着人工智能技术的不断发展,人工智能的应用风险问题日渐突出,人工智能监管成为各国人工智能立法的重点。尽管不同国家采取的人工智能监管方法各不相同,但一些共同的趋势和倡议已经出现。

在美国,尽管最初对人工智能采取了宽松的态度,但近来呼吁进行更严格的监管的声音有所增加。中国的国家互联网信息办公室也正在就监管人工智能的提案进行咨询,而英国正在制定一套支持创新的监管原则。在国际层面上,经济合作与发展组织(OECD)于2019年通过了关于人工智能的《建议》(非约束性),联合国教科文组织于2021年通过了关于人工智能伦理的《建议》,欧洲理事会目前正在制定一项关于人工智能的国际公约。此外,在新成立的欧盟-美国技术伙伴关系(贸易和技术委员会)的背景下,欧盟和美国正在寻求就可信赖和负责任的人工智能原则达成共识。在2023年5月,欧盟立法者发表了一份联合声明,敦促拜登总统和欧盟委员会主席冯德莱恩召开峰会,探讨控制像ChatGPT这类的先进人工智能系统发展的方法。

欧盟在人工智能监管方面一直走在世界的前列,并在人工智能领域开展了大量立法工作。2018年,欧洲政治战略中心发布了《人工智能战略》,并成立了人工智能高水平专家小组,提出了符合欧盟价值观和利益的“可信任的人工智能”理念,以支持欧洲人工智能战略的执行。2019年,欧盟发布了《可信AI伦理指南》和《算法责任与透明治理框架》,这些举措为制定相关规则提供了参考。2020年,欧洲委员会发布了《面向卓越和信任的欧洲人工智能发展之道》和《欧洲数据战略》等政策文件,推动了人工智能领域的治理和法规修订。此外,欧盟还于2020年发布了一系列报告,呼吁解决人工智能系统存在的问题,确保人工智能不侵犯人类的基本权利。

在立法方面,欧洲议会于2023年6月14日以压倒性多数通过了《人工智能法案》的授权草案。该法案将进入最终谈判阶段,欧洲议会、欧盟委员会和成员国将就最终条款展开三方谈判。预计该法案将于2024年正式生效,并可能成为自《通用数据保护条例》后又一部具有广泛全球影响力的立法。

与此同时,中国也在人工智能立法方面取得了进展。中国国务院办公厅在2023年度立法工作计划中提到了“预备提请全国人大常委会审议人工智能法草案”。此前,中国监管部门已经针对特定人工智能领域的治理难题采取了一些针对性的立法措施。7月13日,国家网信办、国家发改委、教育部等七部门发布了《生成式人工智能服务管理暂行办法》(下称《暂行办法》),并将于2023年8月15日起施行。《暂行办法》规定,对生成式人工智能服务实行包容审慎和分类分级监管,全球首部AIGC(生成式人工智能)领域的监管法规落地中国,并将于一个月后正式实施。

中欧均在AI领域的立法上取得了突破性进展。从时间线上看,欧盟的立法速度,已经领先其他国家和地区一大步,并对外公布了长达144页、拥有上千条修正条文的谈判授权草案。中国若期继续推进人工智能立法,可以从中借鉴哪些经验?

一、人工智能风险分级

《暂行办法》第三条规定,国家对生成式人工智能服务实行包容审慎和分类分级监管,第十六条要求有关主管部门完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。

尽管《暂行办法》未对人工智能服务或技术的分类分级提供详细规定,但考虑到人工智能领域近年来密集的立法动态、立法计划和标准制定计划,可以期待在未来的政策法规或国家标准中找到关于人工智能技术或服务分类分级的具体指引。目前国内相关法规和标准仍处于待完善阶段,欧盟《人工智能法案》中基于风险水平的评估可能对人工智能系统的分类分级实践提供一定的参考。

根据《人工智能法案》,人工智能系统被划分为四个风险级别,分别为不可接受的风险、高风险、有限风险和轻微风险。每个风险级别都有相应的法律框架,规定了相应的限制情况和义务。

对于被划分为不可接受风险的人工智能系统,禁止其上市和应用。对于被划分为高风险的人工智能系统,开发者必须采取严格的监管措施,并在将其投放市场之前以及在产品运营的整个生命周期内接受安全评估。对于被划分为有限风险的人工智能系统,要求其遵循透明度原则,评估和减少可能的风险,并在欧盟市场发布前在欧盟数据库中注册。对于被划分为低或轻微风险的人工智能系统,可以不纳入监管范围。

这些风险级别和法律框架的设立旨在确保人工智能系统的安全和透明性,并在不同风险级别下采取相应的监管措施和限制。

1. 不可接受的风险类型的人工智能系统:禁止使用

根据《人工智能法案》第二章第5条的规定,禁止使用具有“不可接受风险”的人工智能系统或应用。这些被归类为不可接受风险的人工智能系统严重侵犯基本人权或违反欧盟价值观,无论是将其投放市场还是用于服务或使用,均应禁止。

根据《人工智能法案》对人工智能系统效用的考量,禁用的系统类型包括:

1)使用有害的操纵性“潜意识技术”的人工智能系统、利用特定弱势群体(身体或精神残疾)的人工智能系统:这类人工智能系统可能通过操纵用户的潜意识或利用特定用户的年龄、身体或精神残疾等弱点,实质性地改变用户的行为,并可能对用户造成身体或心理伤害。

2)由公共机构或其代表用于社会评分目的的人工智能系统:这类人工智能系统能够根据采集或提供的个人信息、数据或资料,对相关个人进行评估、分类或行为预测。如果这些评估或预测结果会导致某些人受到不合理待遇或不公平评价,那么该人工智能系统属于不可接受的风险类型。

3)除少数特定情况外,用于执法目的的公共场所实时远程生物识别系统:例如,在公共场所使用该类系统抓取生物识别数据,用以创建面部识别数据库。然而,与前述两类不同,在特定情况下,在得到司法机关授权且符合最小必要原则的时间、地点和范围内,使用该类系统以有针对性地寻找特定潜在犯罪受害者、预防对人身安全的重大威胁或恐怖主义威胁、侦查、定位、识别或起诉刑事犯罪嫌疑人是被法案允许的。

当前法案在第二章中引入了针对“人工智能系统的侵入性和歧视性使用”的一揽子禁令,与最初版本相比,负面清单进行了大幅修改。

这些禁令涵盖了六类人工智能系统:(1)公共场所的“实时”远程生物特征识别系统;(2)“事后”远程生物特征识别系统,但执法机关对严重犯罪起诉并获得司法授权的情况除外;(3)使用性别、种族、民族、公民身份、宗教、政治取向等敏感特征的生物识别分类系统;(4)基于分析、位置或犯罪前科的预测性警务系统;(5)执法、边境管理、工作场所和教育机构中的情绪识别系统;(6)未经相关人员允许,从社交媒体或视频监控中抓取生物识别数据以创建或扩大面部识别数据库。

2. 高风险类型的人工智能系统:重点监管

《人工智能法案》第三章第6条对“高风险”人工智能系统进行了规范。受重点监管的高风险人工智能应用程序,涵盖人工智能在涉及安全和人权的多个领域中的使用,例如执法、司法、教育、就业、出入境等。当前法案扩大了高风险领域的分类,将对人们健康、安全、基本权利或环境构成重大风险的情形纳入其中。另外,影响政治竞选中选民的人工智能系统,以及根据欧盟《数字服务法》拥有超过4500万用户的超大型社交媒体平台的推荐系统,也被列入高风险名单。

《人工智能法案》下高风险的人工智能系统主要指对安全或基本权利有负面影响的人工智能系统,该等人工智能系统大致包括两类:(1)针对欧盟产品安全立法(the EU’s product safety legislation)所规制产品中使用的人工智能系统,包括玩具、航空、汽车、医疗设备和电梯。(2)《附录III》确定的,属于以下八个特定领域并必须在欧盟数据库中注册的人工智能系统,包括:①自然人的生物特征识别与分类;②关键基础设施的管理和运行;③教育和职业培训;④就业与员工管理;⑤个人基本服务、公共服务和福利;⑥执法;⑦移民管理和边境控制;⑧法律解释与法律适用方面的协助。

根据《人工智能法案》第三章第8-15条的规定,高风险人工智能系统需要遵守一系列要求,特别涉及风险管理、测试、技术可靠性、数据训练和数据治理、透明度、人类监督和网络安全等方面。高风险人工智能系统在投放市场之前,部署者必须承担严格的法律义务,需要确保高风险人工智能系统具备更高的透明度和准确性。例如,为系统提供高质量的数据集,并采取适当的人为监督措施,以最大限度地减少风险和歧视性结果。此外,高风险人工智能系统的部署者应当进行用户基本权利影响评估,考虑到系统对边缘化和弱势群体以及环境的潜在负面影响等。

法案针对高风险系统规定的全流程风险管理措施具体包括:

1)上市前:建立和维护风险管理系统,系统需要能够识别已知和可预见的风险以及使用后可能存在的风险;进行数据治理,人工智能系统的数据训练必须满足一定的质量标准要求,并在数据训练、验证、测试等环节遵循相应的管理规定;制定并更新技术文档,并向主管部门提供所有必要的信息;人工智能系统应在技术上设计为能够自动记录相关日志,并且具备追溯功能。日志至少应包括记录时间、参考数据库、输入数据以及参与自然人等信息;人工智能系统的设计应确保能够进行人为干预等。

2)上市时:人工智能系统应当进行合格评估,由相关机构验证人工智能系统是否满足前述上市前的各项管理要求;起草一份评估合格声明,交由国家监督机构和主管部门保管;人工智能系统在投放上市场或投入使用时,应当在欧盟建立的数据库中进行备案,该数据库可以为公众免费使用浏览,并可以被机器所读取;人工智能系统在投放上市场时,应当贴上实体/数字形式的CE标志(欧洲共同市场安全标志,贴有CE标志的产品可以在欧盟成员国内自由流通)。

3)上市后:人工智能系统在上市后应建立上市后检测系统,收集、记录和分析人工智能系统在整个生命周期的性能数据。在人工智能系统发生严重事件时,提供者应在意识到该事件后的72小时内向国家监督机构报告。

3. 有限风险的人工智能系统:透明度要求

第三类是“有限风险”的人工智能系统,法案对其规定了特定的透明度义务,即该类系统应当使用一定的方式,使得用户能够意识到是在与人工智能系统进行交互操作。该风险类型的人工智能系统在欧盟法案的监管框架下有较高的自由度,投放市场或投入使用前无需取得特殊的牌照、认证或履行繁杂的报告、监督、记录留存等义务。当前常见的聊天机器人、文字和图片识别及生成软件、AI伴侣等大多属于此一风险类型。

4. 轻微风险类型的人工智能系统:无监管要求

第四类为“轻微风险”的人工智能系统,法案对该类系统无特定的监管要求,比如垃圾邮件过滤器等人工智能应用程序。未归类在不可接受的风险、高风险或有限风险类型的其他人工智能系统,都属于轻微风险类型。该风险类型的人工智能系统没有特殊的干预和审查制度,但提供者可自愿建立各行业的行为准则。

二、透明度要求

如何规范引导通用人工智能技术的发展,是国际人工智能立法之初未曾预料到的一大“变数”。特别是ChatGPT等大语言模型问世后,人工智能大模型的浪潮席卷,带来数据合规、版权合规、虚假信息治理等全新治理难题。

《暂行办法》第十二条规定,生成式人工智能服务提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。

根据《深度合成规定》第十六条,深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施,添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息。根据《深度合成规定》第十七条,深度合成服务提供者提供以下深度合成服务,可能导致公众混淆或者误认的,应当在生成或者编辑信息内容的合理位置、区域进行显著标识,向公众提示深度合成的情况,包括:(一)智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务;(二)合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务;(三)人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑服务;(四)沉浸式拟真场景等生成或者编辑服务;(五)其他具有生成或者显著改变信息内容功能的服务。深度合成服务提供者提供其他深度合成服务的,应当提供显著标识功能,并提示深度合成服务使用者可以进行显著标识。

《人工智能法案》也增加了条款以覆盖像ChatGPT这样的通用基础模型。相较于《暂行办法》中较为初步的“标识”要求,法案进一步强调了透明度要求,并对这些基础模型施加了与高风险系统相同的额外要求。具体而言,提供者必须披露内容是由人工智能生成的,防止模型生成非法内容,并提供关于使用受版权法保护的训练数据的情况摘要。据报道,最初有一些欧盟委员会成员提议完全禁止使用受版权保护的材料进行生成式人工智能模型的训练,但后来改为施加透明度要求的方案。此外,应当公开训练数据的来源,使内容创作者了解其原创内容是否被用于训练人工智能大模型,以便他们可以为人工智能系统使用其作品寻求报酬。

除了生成式人工智能领域,法案规定所有人工智能领域的利益相关者都有一定的透明度义务,包括保存技术文档、记录操作以确保可追溯性,并向用户提供适当的信息等。

三、拓展监管工具

中国目前的监管工具体系主要包括算法备案和算法安全评估。然而,欧盟提出的一些做法,如算法认证和监管沙盒,值得中国参考和尝试。

1. CE合格标识

欧盟法案提出了针对高风险人工智能的“CE合格标识”制度,获得该标识意味着人工智能系统符合法案对高风险系统的规定要求。为企业,特别是中小企业和初创企业颁发合格标识相当于监管部门为产品的基本合规性提供支持。然而,无论是欧盟还是中国,目前仍然依赖企业自行提交的技术文件和法律文件进行监管,监管部门在实质性的技术监管方面缺乏必要的技术能力。

2. 监管沙盒

此外,法案第1条提出支持对中小企业和初创企业的创新监管措施,包括建立“监管沙盒”等措施,以减轻中小企业和初创企业的合规负担。

尽管目前尚没有统一的定义,但通常来说,“监管沙盒”指一种监管工具,该工具允许企业在监管机构的监督下,在有限期间内测试和实验新的创新产品、服务或业务。因此,监管沙盒具有双重角色:(1)促进企业学习,即在真实环境中开发和测试创新;(2)支持监管学习,即制定实验性的法律制度,以指导和支持企业在监管机构的监督下进行创新活动。在实践中,这种方法旨在在受控风险和监督框架内实现实验性创新,并提高监管机构对新技术的理解。

过去几年中,监管沙盒的方法在欧盟范围内得到了广泛应用,作为帮助监管机构应对各个行业中新兴技术(如人工智能和区块链技术)发展和使用的手段。金融监管机构经营的监管沙盒在金融技术(金融科技)中得到广泛应用,用于设计新的金融服务(例如测试数字钱包和数字身份技术)。

类似地,监管沙盒已经成为交通(例如自动驾驶汽车或无人机)、能源(例如智能电表)、电信(例如5G部署)和医疗保健(例如用于疾病预测早期检测的服务和创新)领域的测试平台。欧盟政策制定者越来越倾向于在高科技领域采取更加灵活的创新和监管方法。监管沙盒已被提议用于测试应对新冠疫情的监控解决方案,并为在欧盟建立数据访问和使用框架提供支持。欧盟期望以法案方式进一步推行监管沙盒,以支持初创企业将具有挑战性的技术引入市场,并实现跨境测试。

2021年3月,中国证监会在北京开展了金融科技监管沙盒试点,其中涉及到了利用人工智能的金融科技技术。人工智能的应用领域不仅限于金融领域,为了保护消费者权益并减少人工智能投入市场后可能带来的风险,工信部、网信办等主管部门可以牵头开展人工智能监管沙盒的试点工作,促进人工智能的健康有序发展。这样的试点工作可以为监管部门提供更多了解人工智能应用的机会,探索监管新模式和方法,同时为企业提供一个合规测试和创新的环境,促进人工智能技术的优化和发展。通过监管沙盒试点,可以平衡创新和风险管理之间的关系,推动人工智能行业的可持续发展。

四、《人工智能法案》的不足之处

1. 风险分级的实际效果尚存异议

关于法案所采用的风险分级逻辑,学界对其实际效果提出了一些异议。目前法案的分级逻辑是基于人工智能系统的预期用途而非其底层模型,从而将其划分为高风险或非高风险。这种分类方法可能存在监管漏洞,因为同一人工智能系统可以用于多种不同的目的。实际应用中,关于某项人工智能技术应该属于哪个分类存在不同观点。例如,法案第52条规定了对生成或操纵图像、音频或视频的内容,使其看起来明显类似于真实且具有可信度的情况,使用者必须披露该内容是由人工智能系统生成或操纵的。这表明法案没有将应用深度伪造技术的生成式人工智能系统纳入高风险范畴,只是在透明度方面要求使用者进行内容披露。这样的划分显然是不合理的,会大大降低风险分级制度的实际效果。

一些学者认为这种分级方法无法确保准确识别与不同类型人工智能系统相关的危害,导致无法适当追究责任。他们建议禁止使用深度伪造等操纵性人工智能系统、社会评分和某些生物特征识别技术等。还有学者呼吁更详细地对风险进行分类,以促使行业进行自我评估,并禁止更多的人工智能系统(例如生物特征识别技术)在私人领域使用。此外,一些学者指出,法案未能解决人工智能在气候和环境保护领域,特别是在系统可持续性风险方面可能带来的问题。

对于禁用系统和高风险系统,由于风险评估是由系统提供者自行进行的,大多数提供者可以通过自我评估程序将高风险系统任意划分为低风险以规避监管。因此,一些学者建议由第三方独立机构对系统风险进行评估。但是科技公司对此却持反对态度,交由独立第三方进行风险评估则意味着科技公司有义务允许外部审计机构或监管机构访问其源代码和算法以执行法律的要求。

可以看出,无论是欧盟还是中国,目前仍然依赖于企业自行提交的技术文件和法律文件进行监管,缺乏有效的执法结构,监管部门也缺乏进行实质性技术监管的能力。

2. 法案的一些要求在技术上无法遵守

法案要求人工智能系统使用的数据集没有错误,并且人类能够“完全理解”人工智能系统的工作原理。但实际上,用于训练人工智能系统的数据集非常庞大,如果要验证此类数据集,采用人工检查是否完全没有错误,将耗费巨量的时间成本及劳动成本。并且人工智能深度学习算法发展至今,其复杂程度甚至是其创造者也不能完全理解人工智能运行并得出结论的背后,其神经网络是如何运作的。

此外,透明度要求也难以真正实现。由于人工智能技术的复杂性等因素,普通用户难以了解人工智能服务提供者是否履行了披露义务。以生物识别系统为例,大多数用户可能意识到生物识别系统对其个人隐私和个人信息构成威胁,但实际上,生物识别系统可能还会导致歧视和偏见,根据年龄、性别、种族等身体特征对个人用户进行分类等“算法黑箱”问题。显然,类似生物识别系统的人工智能系统都应加强对其产品和服务的透明度要求,采取严格的披露义务。然而,这些人工智能系统本身的技术问题难以被用户察觉,难以确认人工智能提供者是否履行了法律要求的完整披露义务,从而使实现真正的透明度变得困难。

3. 基本权利保护及责任承担机制不完善

中国科学院吴怀宇博士在北京发起了人类历史上第一个开放协议“人工智能宣言”—OpenDAI,至今已不断迭代更新了6个版本,其中对人类基本权利的描述如下:“我们觉得人工智能一直将是可控的、与人类和谐共处的、且将保证人类的以下基本权利。对于人类而言,我们认为这些真理是不言而喻的:人人生而平等,其拥有若干不可剥夺的权利,其中包括生命权/繁衍权、 尊严权、自由权(比如:不受压迫性监督和规定的思想和生活方式)、追求(享受)幸福的权利、以及人类共同体永为人工智能(机器智能)的主人,且人人具有合法分享人工智能成果(即:让自身更智能或足够智能)的权利。”*人权具备“普遍、不可分割、相互依存、彼此相关”性。其中,人类尊严是每个人类个体都天生拥有的“内在价值”,其永远不应被其他外在方(包括AI系统)忽视、压制或妥协。

然而,回顾欧盟的《人工智能法案》,法案仅在第二编规定了禁止的人工智能行为清单,未涉及相关的监督和修订机制。因此,法案无法有效地规范人工智能技术对基本权利的侵害。从欧盟委员会高级专家小组提出的可信人工智能的道德准则和可信人工智能的政策和投资建议中可以看出,法案的终极目标是建立合法且值得信赖的人工智能。值得信赖的人工智能系统应该遵循促进基本权利、民主和法治的治理框架,并且本身并不损害基本权利、民主和法治。

此外,该法案对责任承担方面涉及的两个关键问题未作出明确回应。首先,法案未规定对不遵守其规则的人工智能系统的提供者或用户采取法律行动的权利。即使法案中规定了罚款形式的处罚方式,但并未授予某一机构具体的执法权力。同时,法案在惩罚对象和惩罚方式上较为单一,主要是对人工智能提供者进行罚款,责任体系相对单一。其次,法案未涉及人工智能系统本身的责任承担问题。人工智能人格问题本身非常复杂,包括了关于人工智能系统法律主体资格的问题,法案未对这些问题作出明确回应。

4. 风险管控和创新促进的平衡不足

法案的一个显著特点是注重基于风险来设立监管制度,以平衡人工智能的创新发展与安全规范。实现既“管控风险”又“促进创新”的目标是一个需要动态平衡的挑战。为此,该法案建议引入监管沙盒机制,即在人工智能系统投入市场或使用前,对其进行开发、测试和验证,以降低风险。同时,该法案要求人工智能应用必须遵循透明与可追溯性原则,确保能够解释清楚其决策的原因和依据,并记录所有的交互数据和结果,从而监管运行过程,保障人工智能应用的可靠性和安全性。

欧盟试图通过建立一个统一的人工智能法律监管框架,来维护其在数字主权和科技领域的领导地位,并通过这样一部综合性立法抢占全球人工智能监管的先机。然而,统一的法律框架存在局限性,因为该法案采用的是横向立法,试图将所有人工智能都纳入监管范围。如果不能针对特定人工智能应用领域制定具体的法律规范,执行时可能会面临大量的解释问题,实际的执行效果可能会大打折扣。

因此,尽管该法案提供了一些切实可行的监管机制,但在平衡风险与创新、以及针对特定人工智能应用领域进行规范方面,仍需要更深入的探讨和进一步的细化。在立法过程中,针对不同类型的人工智能系统,可以采取更加灵活和差异化的监管措施,以确保既能促进创新,又能保障公共安全和基本权益。

五、结语

人工智能技术的快速发展正在全球范围内蓬勃进行,欧盟的《人工智能法案》的出台显示了欧盟加强数字领域规范的决心,试图通过市场力量单方面监管全球市场,延续其规范的“布鲁塞尔效应”。

然而,从市场角度来看,数据显示,2019年美国人工智能的风险投资和私募股权融资达到了143.45亿美元,远远超过了欧盟的32.07亿美元。2020年,美国有超过1亿美元融资的人工智能公司达到了2130家,而欧盟仅有890家。可以预见,若法案顺利通过,在强监管的指引下,欧盟可能将难以培育自己的明星企业。

从法案的立法技术角度来看,该法案有很多优点,包括更精细地划分人工智能系统风险类别、明确禁止的人工智能系统行为、增设欧洲数据库和高风险人工智能系统的日志要求等。法案为人工智能技术的进一步发展提供了基本规则。然而,法案在保护基本权利、责任机制、透明度义务以及人工智能的定义和分类合理性等方面仍存在不足之处。

与欧盟类似,中国也面临着在人工智能领域立法的十字路口。《人工智能法案》的优点和缺点为中国人工智能法律监管提供了参考,对明确人工智能的法律地位、加强人工智能立法的体系化和系统性、细化风险分级制度以及通过制度设计鼓励创新等方面具有相当的借鉴意义。可以静观《人工智能法》授权草案的不断修改和演化,以及立法后的评估,再以该法案为蓝本,取其精华去其糟粕,统筹设计中国的人工智能立法。

当前,人工智能技术仍处于探索阶段,离成熟的人工智能技术还有很长的路要走。技术创新和制度创新之间并不存在简单的因果关系和线性关系,两者需要平衡和衔接,相互促进,以实现科技的可持续发展。如果过早地限制技术研发和应用范围,反而会对实现创新和成熟应用人工智能技术造成不必要的束缚。

参考文献:
1. European Parliament-TEXTS ADOPTED-P9_TA(2023)0236-Artificial Intelligence Act

(https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf)

2. BRIEFING-EU Legislation in Progress-Artificial intelligence act

(https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf)

3. AT A GLANCE-Digital issues in focus-General-purpose artificial intelligence

(https://www.europarl.europa.eu/RegData/etudes/ATAG/2023/745708/EPRS_ATA(2023)745708_EN.pdf)

4. BRIEFING-Artificial intelligence act and regulatory sandboxes

(https://www.europarl.europa.eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN.pdf)

5. Procedure File: 2021/0106(COD) Legislative Observatory | European Parliament

(https://oeil.secure.europarl.europa.eu/oeil/popups/ficheprocedure.do?lang=en&reference=2021/0106(OLP))

6. 张璐. 通用人工智能风险治理与监管初探——ChatGPT引发的问题与挑战[J].电子政务:1-11.

7. 曾雄,梁正,张辉.欧盟人工智能的规制路径及其对我国的启示——以《人工智能法案》为分析对象[J]. 电子政务,2022,(09):63-72.

8. 程莹,崔赫. 欧盟高风险人工智能监管的五个特点——欧盟人工智能法案(草案)初步解读[J].互联网天地,2021,(06):38-41.

9. 于品显,刘倩.欧盟《人工智能法案》评述及启示[J].海南金融,2023,(06):45-53.

10. 钟新龙,彭璐. 美欧人工智能法案对比研究及启示建议[J].科技中国,2023,(06):32-35.

11. 方旭,卫燕,张颖,王潇洒,孙琳潇,许磊.欧盟人工智能法案综述[J].计算机时代,2022,(05):92-95.

12. OpenDAI:Open Declaration of AI,开放协议“人工智能宣言”(http://www.opendai.org/)