摘要
《数字经济伙伴关系协定》(DEPA)作为亚太地区首个数字领域的专门协定,以软法化的方式为缔约方提供了人工智能的治理框架,该协议旨在促使各缔约方在此领域保持协调一致。软法化的人工智能条款不仅能够有效促成 DEPA 缔约方之间人工智能的国际合作,还为 DEPA 的缔约方预留了国内人工智能技术的发展空间。此外, DEPA 人工智能条款的软法化内容与欧盟、美国的人工智能法律规则存在理念共鸣,同时与中国参与共同提案的联合国人工智能全球决议之间形成了实践共鸣。目前中国已申请加入 DEPA,未来中国不但需要加强人工智能技术的国际合作,还需要积极参与人工智能治理的全球协调,进一步提升人工智能治理的国际合作水平,以“可信、安全和负责任”为要求,以“可解释、透明、公平和以人为本”为导向,使国内对人工智能的治理满足 DEPA 第 8.2 条的要求,从而顺利对接 DEPA 人工智能条款,进而有助于构建全球人工智能治理体系。
关键词
Abstract
The Digital Economy Trade Partnership Agreement (DEPA), as the first digital agreement in the AsiaPacific region, provides a governance framework for Artificial intelligence (AI) in the manner of international soft law for the contracting parties, aiming to maintain coherence among them in this area. The soft-law AI clauses not only effectively enable international cooperation on AI but also reserve space for DEPA parties to develop AI technologies domestically. Moreover, the soft law content of the DEPA AI clauses build consensus and interacts, intentionally or unintentionally, with the AI legal frameworks of the EU, the US, as well as the United Nations’ global AI resolution co-sponsored by China. Currently, China has applied to join DEPA. In the future, China needs to strengthen international cooperation in AI technology and actively participate in the global coordination of AI governance. This will further enhance the level of international cooperation in AI governance, requiring a focus on being trustworthy, secure, and responsible, and guided by the principles of explain-ability, transparency, fairness, and human-centeredness. This alignment will ensure that domestic governance of AI meets the requirements of Article 8.2 of the DEPA, thereby facilitating a smooth connection with the DEPA’s AI Clauses and contributing to the construction of a global AI governance system.
Keywords
一、 问题的缘起
近年来,随着人工智能技术的迅猛发展,人工智能应用已经逐渐渗透到人们生活的方方面面,影响着全球数字经济的发展。2023年6月麦肯锡公司发布的研究报告显示,生成式人工智能可为全球经济提供数万亿美元的价值(Chui et al.,2023)。以深度学习为代表的智能算法,以大数据技术为代表的数据处理和以云计算为代表的超算能力都为人工智能的发展提供了基础和动力,人工智能已在相当程度上影响着各国经济和社会结构的发展。
人工智能的发展带来了数据安全、隐私侵犯、数字鸿沟、责任困境、伦理失范等多种新型治理挑战,促使国际社会意识到必须加快构建新的治理框架。由于人工智能先天与互联网等全球化技术息息相关,且技术更新迅猛,因而构建人工智能治理框架并不单单是某个国家或地区的问题,而是涉及全人类福祉的数字贸易议题。2020年 6月,《数字经济伙伴关系协定》(Digital Economy Partnership Agreement,下称DEPA)由新加坡、新西兰与智利三国签署。2023年7月,各缔约方又补充签署DEPA 议定书(Protocol to the Digital Economy Partnership Agreement),对原协定的适用范围、部分概念的定义等进行了进一步的明确。DEPA采取模块化承诺方式,参与方可根据自身实际情况自由选择接受全部或部分模块。其中,DEPA的模块8专门针对人工智能等新兴数字技术进行了规制,为国家间人工智能治理提供了初步的框架。 DEPA第8.2条规定了人工智能的基本治理框架,并要求各缔约方确保在人工智能治理框架下与国际惯例保持一致。在全球人工智能治理尚未出现统一规范之际,作为全球首份数字经济区域协定的DEPA率先对人工智能进行规范,足以显示出DEPA人工智能条款的时代意义。同时,中国已经申请加入DEPA,并且,根据DEPA联合委员会 2022年8月18日的决定,中国加入DEPA工作组也正式成立。因此,在中国申请加入 DEPA后,研判中国如何对接DEPA人工智能条款具有重大价值。
自DEPA成立生效以来,学界对DPEA人工智能条款的研究路径主要有以下两个方面:一是DEPA人工智能条款的认识论路径。如有学者归纳总结出DEPA人工智能条款内容上具有间接规制特征(沈伟和赵尔雅,2022)。也有学者分析DEPA人工智能条款对国际经贸规则发展产生的深远影响(Soprana,2021; Lee & Collins, 2023)。二是DEPA人工智能条款的方法论路径。如有学者采用比较研究方法,着重对比研究DEPA人工智能条款与“新式”数字贸易规则的异同(周念利和于美月, 2023)。在中国正式申请加入DEPA后,部分学者进一步立足中国立场,研究中国加入DEPA可能面临的人工智能监管挑战(吕思嘉,2023)。然而,现阶段国内外学界对DEPA人工智能条款的研究还保持在传统的文本归纳层面,尚未深度挖掘DEPA人工智能条款软法化的特色实践及其内部的逻辑架构,也未充分揭示DEPA人工智能条款与当前国际社会人工智能的治理实践所具有的共鸣与互动。基于此,本文将首先尝试以DEPA人工智能条款为分析对象,并以国际软法作为切入视角,探寻DEPA人工智能条款的内在核心要求。其次,本文将以中国在联合国参与共同提案的《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》(下称联合国 “AI决议”)①及欧美人工智能治理实践为参照系,深度分析DEPA人工智能条款软法化内容在国际社会不同场合下的互动与共鸣。最后,基于DEPA人工智能条款软法化内容以及国际共鸣实践,本文将探寻中国为加入DEPA在人工智能治理领域的应对策略。
二、 DEPA 人工智能条款的软法化
国际软法自诞生之初就受到各类学者的广泛关注(Shelton,2008)。不同学者分别从功能主义(胡玉婷,2014)、建构主义(夏春利,2014)等视角出发,对国际软法进行定义和分析。陈海明(2018)将国际软法定义为缺乏直接法律拘束力但又能产生一定法律效果的国际规范。因此,国际组织和国际会议的决议、决定、宣言、建议和标准等绝大多数都属于这一范畴。江河(2020)曾定义现代国际软法是指,国际关系中缺乏法律效力形式或法律拘束力合意,但其实体内容具有类似于条约和国际习惯等主要法律渊源之实际效果的行为规范。
关于国际软法的定义,本文采用最常见的实证视角,主要以法律效果作为判断标准,将具有法律约束力的规则,如条约、习惯国际法等,归类为国际硬法;将不具有严格的法律拘束力但能产生社会实效的规则归类为国际软法,如各类指南、建议、宣言、行动守则等(朱明婷和徐崇利,2023)。虽然条约是典型的国际硬法,但条约中存在的不具有严格意义上的义务条款,本文认为其具备软法化特征。值得注意的是,由于条约是国际法主体之间,依据国际法确定其相互间权利和义务关系的书面协定。因此,在国际法主体之间已确定彼此权利与义务关系的条约中,具备软法化特征的条约条款应当具有法律约束力,从而并不是严格意义上的国际软法。由于国际条约中具备软法化特征的条款实际上无法清晰界定各缔约方之间的权利与义务关系,而注重实效的国际软法反而能够在理论上为国际条约中的软法化条款提供有效的规则分析路径。基于此,人工智能作为全球数字贸易中的新型领域,国际条约中对人工智能进行软法化治理的相关条款与国际软法具有先天的亲和力。借助国际软法理论进行研究,有助于对DEPA中人工智能条款的软法化成因及其内容进行更深入的分析。
(一) DEPA 人工智能条款的软法化成因
未来数年,在人工智能普遍应用的场景下,社会对其安全性不容忽视。然而,人工智能在数字贸易中属于新领域,许多国家和地区,包括DEPA各缔约方在内,在人工智能领域尚处于初期阶段。因此在短期内,国际社会主要尝试制定国际软法或在条约中制定具备软法化特征的条款内容,用以规制人工智能技术的应用,如联合国教科文组织在2021年11月23日通过《人工智能伦理问题建议书》,向国际社会发出制定全球人工智能治理框架的倡议。①虽然国际软法或在条约中具备软法化特征的条款对法律主体仅具有弱制约性,但其具备实施灵活性的优点。因此,各国往往会主动选择制定国际软法或在条约中制定具备软法化特征的条款,对如人工智能这样的新领域进行治理。
本文认为,鉴于当前全球人工智能治理现状以及国际软法的优势,DEPA缔约方以软法化的方式规制人工智能至少基于两方面的原因。一方面,软法化的DEPA人工智能条款并不影响各缔约方国内人工智能的实践,这为各缔约方国内的人工智能发展预留了政策空间。由于人工智能领域国际规范尚未统一,DEPA各缔约方在人工智能领域的治理能力不同、发展水平存有差异,客观上导致DEPA各方难以使用强法律拘束力的规则规制人工智能技术。软法化的DEPA人工智能条款则在相当程度上保留了各缔约方对人工智能的规制权,以便各缔约方可及时调整对人工智能的监管政策。另一方面,DEPA加入机制的开放性和灵活度也是造成DEPA人工智能条款软法化的原因之一。不同于欧美约束性较强的国际协定范式,DEPA的缔约方对人工智能等新技术领域的规制所做出的软法化处理,有利于吸引更多的国家或地区加入DEPA,并逐步形成人工智能领域的全球治理共识。
在实践中,DEPA人工智能条款的软法化已经在国际上产生了一定的影响。例如,由新加坡主导签署的一系列数字贸易协定,包括《英国—新加坡数字贸易协定》 《韩国—新加坡数字贸易协定》以及《澳大利亚—新加坡数字贸易协定》等,均将 DEPA人工智能条款的基本内容作为人工智能治理的重要规则。以《澳大利亚—新加坡数字贸易协定》为例,该协定第31条(“人工智能”)第2款规定,缔约方在可信、安全和负责任使用人工智能的治理框架方面尽可能保持协调一致。
(二) DEPA 人工智能条款的软法化内容
DEPA第8模块“新兴趋势和技术”共4条,分别对各缔约方的金融科技合作、人工智能、数字化政府采购和竞争合作进行规制。其中第8.2条规定了各缔约方在人工智能领域需要遵守的软法化规则。第8.2条共计4款,除了在DEPA第8.2.1条各缔约方宣言性地确认人工智能在数字贸易领域日益突出的重要性外,其余3款分别规定了各缔约方在人工智能治理的国际合作、人工智能的治理框架以及关于人工智能治理价值取向的规则。
1. DEPA 人工智能治理的国际合作
DEPA在第8 .2.1条确认了人工智能技术对经济和社会发展的重要性之后,在第 8.2.2条明确了DEPA人工智能治理的国际合作。与国际贸易等领域的监管/规制合作/ 协调①类似,人工智能治理的国际合作②同样强调各国协同制定国际软法或国际硬法对人工智能全环节及与之相关的各行为主体进行行为规范调整的协调,我们也可将人工智能治理的国际合作理解为各国在人工智能这一具体领域实现对数字技术治理的国际合作。DEPA第8.2.2条规定了各缔约方认识到相互理解的重要性,并认同人工智能治理框架宜保持国际一致性,进而各方认可应尽可能便利在各自管辖范围之间接受和使用人工智能技术。该条规定既凸显了缔约各方对人工智能治理国际合作的意愿,也反映了DEPA人工智能条款国际合作内容的软法化特征。
一方面,DEPA人工智能条款中人工智能治理的国际合作缺乏可执行的具体条约义务。考虑到目前人工智能治理国际合作和交流仍然存在诸多困难,DEPA人工智能条款仅要求各缔约方基于数字经济的跨境性质,逐步增进对人工智能治理的共识,协调各方在人工智能治理领域的潜在差异,并尽可能在各自管辖范围内接受和使用人工智能技术。由此可见,DEPA人工智能条款中的国际合作也仅是强调缔约方尽快形成人工智能治理的国际共识,从而暂时放弃规定人工智能治理国际合作方面的具体义务,这显然是DEPA人工智能条款软法化的体现。
另一方面,从语词上分析, DEPA 第 8 .2 .2 条借助 “ 进一步承认 ” ( further acknowledge)、“尽可能”(as far as possible)等软法性的用词,既体现了DEPA缔约方希冀加强人工智能治理国际合作,推动建立适合人工智能领域国际经贸规则的意愿,又保障了缔约各方在人工智能领域拥有治理权,为未来加入成员和现有成员在此领域预留了政策空间。由于DEPA加入机制的开放性,DEPA第8.2.2条采用软法化的方式实现人工智能治理领域的国际合作,尽可能吸引有意愿的国家加入DEPA,保障DEPA人工智能条款的可持续发展,从而实现DEPA序言中数字经济的国际合作治理愿景。
2. DEPA 人工智能的治理框架
DEPA第8.2.3条规定了各缔约方应努力(shall endeavour)促进采用可信、安全和负责任使用的人工智能治理框架,这一框架从伦理道德层面,为人工智能法治化进路提供了原则性的治理路径。首先,“可信、安全和负责任”作为DEPA人工智能治理框架的三个要素,相辅相成,缺一不可。“可信”作为DEPA人工智能治理框架的首要因素,主要通过可解释和透明来实现,而可解释和透明既具有工具性又具有价值性。因此,可解释和透明不但是“可信”因素的重要实现方式,也是DEPA第8.2.4条规定的缔约方治理人工智能需要遵循的价值取向。通过实现人工智能技术的可解释性,增强人工智能技术的透明度,才能促使人工智能技术变得为民众所理解,降低民众因认知的局限性和技术的不确定性而造成对人工智能技术的不信赖。其次,在可信的人工智能基础上,以安全作为人工智能技术发展的底线。随着人工智能技术不断发展,人工智能也不断涌现出算法黑箱、数据泄露等技术安全风险、社会安全风险,乃至国家安全风险。DEPA人工智能条款中“安全”要素就是保障人工智能系统能够处于有效保护的状态和能力,避免个人、社会和国家出现安全风险。最后,DEPA人工智能条款要求实现以“负责任”为要素的人工智能。“负责任”的人工智能意味着建立和完善人工智能问责法律框架,进而清楚明晰地规范人工智能研发者、使用者和监管者的责任。
一方面,DEPA虽已为缔约方提供了可信、安全和负责任的人工智能治理框架,但DEPA条款用语的抽象性(如“可信、安全和负责任”)和倡导性(如“应努力” (shall endeavour)),均导致DEPA人工智能治理框架具有明显的软法化特色。另一方面,由于人工智能技术在现实中本身存在技术表达方式的独特性,如算法黑箱等,故现阶段在各国对人工智能治理框架达成共识的基础上,DEPA可利用人工智能治理框架的软法化,积累各国关于人工智能技术治理的行为典范,为后续的进一步共识奠定基础。
3. DEPA 人工智能治理框架的价值取向
DEPA在8.2.3条规定了人工智能治理框架之后,紧接着在DEPA第8.2.4条规定了缔约方在采取人工智能框架时,应努力考虑国际公认原则或指导方针,包括“可解释、透明、公平和以人为本”的价值取向。DEPA人工智能治理框架的实施需要遵循一定的价值取向,否则,缺乏价值取向的人工智能治理框架将阻碍人工智能法治化,甚至导致未来人工智能领域的制定法与正义之间存在冲突,成为“非正确的法”(雷磊,2015)。价值取向往往以抽象性概念作为语义表达,无法避免内涵和外延的开放性。同时,协定通常采用“努力”(endeavour)等软法化用词,柔性约束国家行为。DEPA人工智能治理框架的价值取向同样沿袭上述特征。
DEPA人工智能治理框架的价值取向是人工智能技术法治化转向的治理目标。在人工智能法治化治理过程中,“可解释、透明、公平和以人为本”这四种价值之间存在内在的逻辑联系。如前所述,可解释和透明既是DEPA人工智能框架的价值取向,也是人工智能框架实现“可信”的重要方式,而公平则是保障DEPA人工智能框架实现的基础性条件。另外,人本思想作为人工智能价值取向中的“元理念”,也成为所有人工智能治理的最终价值指向。
首先,可解释和透明具有同质性,均强调无论处于人工智能技术的开发、运营或其他环节,都要求从业者对决策过程、结果和原因向“利益攸关者”做出与专业程度相匹配的解释,增强透明度。该价值取向旨在调适技术壁垒和公众认知之间的矛盾,寻求法治与人工智能技术发展之间的平衡。其次,公平是贯穿人工智能技术全过程的基础性条件,技术应用与结果都应该公平公正,从而有助于缩小数字鸿沟、减轻偏见和避免歧视。在规范主义视角下,DEPA人工智能治理框架的公平价值取向还包括对实质正义、程序正义的权利保障。最后,以人为本作为法治的灵魂,核心要义在于从人出发,将人的尊严、人的感受、人的发展作为人工智能技术的终极关怀。在数字人权、隐私权和人格权方面,人本价值体现更为明显,通过规范人工智能的技术研发、系统应用和产品生产等环节,降低可能产生的人权风险,强化对人工智能的人权评估、审查,秉持尊重和保护人权、隐私权和人格权等人的基本权利,保障人本价值的实践(张文显,2020)。
三、 DEPA 人工智能条款的国际共鸣
在国际法语境下,国际软法与国际硬法之间呈现出互补的态势。2024年3月11日在联合国大会上,各会员国首次以协商一致的方式通过了联合国“AI决议”。该份决议不仅促请各会员国进行国际合作,而且呼吁会员国制定“安全”“可靠”和“负责任”的人工智能系统治理框架以及采取“可解释、透明、公平和以人为本”的人工智能价值取向,这与DEPA人工智能条款的基本内容几乎相同。同时,由于DEPA人工智能条款的基本内容和价值取向既与全球共识的人工智能治理理念具有极大相似性,①也符合数字法理的基本概念(张吉豫,2022),因此,即使是非DEPA缔约方,也可能不约而同地在制定国内法或国际协定时创设与此类似的内容。尤其是欧盟、美国等制定的人工智能规则与DEPA人工智能条款的互动更为紧密,这种互动或有意为之,或无意契合。由此可见,DEPA人工智能条款的软法化内容已经成为国际社会在人工智能全球治理方面的重要发展趋势,并影响、促进区域与多边共识。因此,下文拟通过分析欧美人工智能规则与DEPA人工智能条款之间的互动,并结合联合国大会“AI决议”,探析DEPA人工智能条款所引发的国际共鸣。
(一) DEPA 第 8.2.2 条“国际合作”的互动共鸣
由于人工智能技术具有明显的跨境影响,因而人工智能治理的国际合作和交流相较于以往任何时候都显得迫切。联合国“AI决议”序言第8段号召各会员国尝试开展包容性国际合作,······防止对安全、可靠和值得信赖的人工智能系统的治理不成体系。同时,欧盟、美国等国际组织或国家制定的人工智能规则与DEPA人工智能条款相类似,也将国际合作植入人工智能治理之中。例如,2024年7月12日,欧盟在官方公报上正式公布由欧盟理事会与欧盟议会共同签署的《人工智能法》 (Artificial Intelligence Act,AIA)。①AIA规定,人工智能系统的概念应当明确界定,并与从事人工智能工作的国际组织密切合作,以确保法律的确定性,促进国际趋同和广泛接受。②美国众议院也于2024年12月发布《两党人工智能特别工作组报告》 (Bipartisan House Task Force Report on Artificial Intelligence),支持美国继续参与国际论坛,并推动国际社会形成负责任的人工智能发展框架。
因此,不仅联合国“AI决议”与DEPA人工智能条款所规定的国际合作要求互动共鸣,而且欧盟与美国也在各自的人工智能法中强调人工智能治理的国际合作。可以看出,DEPA人工智能条款的内容已经具备了全球人工智能治理的基础性共识。
(二) DEPA 第 8.2.3 条“可信”“安全”“负责任”的国际共鸣
1. DEPA 第 8.2.3 条“可信”要求的国际共鸣
可信是人工智能法律制度的首要原则或“帝王原则”(陈吉栋,2023)。联合国 “AI决议”第3条以软法的方式鼓励各成员国制定和支持与可信的人工智能系统有关的治理框架。DEPA人工智能条款与欧盟、美国人工智能规则也不约而同地将可信作为人工智能治理的首要要求。2019年4月,欧盟委员会发布由人工智能高级专家组撰写的《可信的人工智能伦理手册》(Ethics Guidelines for Trustworthy AI),提出建立可信的人工智能治理框架,并提出可信的人工智能需要在整个生命周期满足合法性、道德性和鲁棒性(robust)三个条件。③2025年4月3日,美国白宫发布《关于通过创新、治理和公众信任加速联邦对人工智能的使用》备忘录(Accelerating Federal Use of AI through Innovation,Governance,and Public Trust),也强调联邦政府的 AI使用必须是可信、安全和透明的。①
可信在人工智能领域的核心要义是要求人工智能技术具有可解释性,如前所述,可解释亦为DEPA第8.2.4条规定的人工智能价值取向所要求,而增加人工智能系统的透明度以使公众在使用人工智能技术时能够理解或把握自动化决策,则是现阶段提高人工智能可解释性的主要方式。例如,联合国“AI决议”提出,对于作出或支持作出影响最终用户决定的人工智能系统,在其整个生命周期内促进透明度、可预测性、可靠性和可理解性,包括提供通知和解释。②与之类似,欧盟AIA规定,透明度(transparency)是指人工智能系统的开发和使用具有可追溯性和可解释性。③同时,由于人工智能系统的开发者与使用者之间存在天然的信息不对称,因此,AIA 第13条要求高风险人工智能系统的设计与开发应当确保其操作具有足够的透明度,使得部署者(deployers)④能够解释人工智能系统的输出并对其加以适当使用,从而进一步提高人工智能的可信程度。美国现阶段关于人工智能的透明度要求分散在各个法案之中。如2022年美国国会议员提交国会的《算法问责法案》(Algorithmic Accountability Act of 2022)要求公司评估其使用和销售的算法所造成的影响,披露何时以及如何使用算法,以充分保障消费者的知情权。⑤
可信除了可解释性这一核心要义之外,还包括可靠性和可控性两方面内涵(袁康,2021)。可靠性意味着人工智能系统应当符合人类社会的伦理价值,不应存在算法歧视等不公平的价值导向。例如,联合国“AI决议”鼓励会员国帮助保护个人免受因人工智能产生的歧视、偏见等伤害。⑥在区域层面,欧盟AIA要求人工智能系统必须符合《欧盟人权宪章》(the Charter of Fundamental Rights of the European Union) 的要求,并且禁止欧盟境内开发、运营根据自然人的社会行为做出社会评分的人工智能系统。⑦如果说可靠性是人工智能系统运行时公众对人工智能的期待,那么可控性则是人工智能系统维持与公众之间的信任所需要具备的特性。可控性指向人们可以自主决定人工智能系统是否继续执行(孟天广和李珍珍,2022)。因此,可控性是在强调人在人工智能治理领域拥有主体地位,避免人工智能的使用者沦为技术的奴隶。
2. DEPA 第 8.2.3 条“安全”要求的国际共鸣
安全是人工智能法律制度的底座。对DEPA人工智能治理框架中安全的理解不应只局限于人工智能的技术安全,还需要着眼于更加包容、更加开放的理论视角。安全的法益结构包括三个维度,即微观的个人安全、中观的社会安全以及宏观的国家安全(赵精武,2022)。因此,DEPA人工智能治理所要求的安全,需要阐明人工智能技术与个人、社会和国家之间的互动关系,化解和防范三者互动过程中发生的安全风险。当前,欧盟与美国同样从国家安全、社会安全和个人安全这三个维度来规制人工智能,形成有效的人工智能规则来深化和细化安全法益,最终实现安全的人工智能治理目标。
从微观层面看,安全法益指向人工智能自身的技术安全。由于人类对人工智能技术的理解和认知尚处于发展阶段,即使是专业技术人员也无法完全理解人工智能技术,因此人工智能系统在设计之初就有可能存在缺陷,导致人工智能在场景应用之时无法准确地达到原有设计目的,进而产生性能或结构偏差。为避免人工智能技术自身缺陷产生的安全隐患,联合国“AI决议”鼓励成员国在人工智能系统开发、测试期间,采取有效措施识别、预防人工智能系统存在的风险。①欧盟AIA也采用事先预防原则来治理高风险人工智能系统,即高风险人工智能系统在上市之前需要完成内部评估、外部认证、数据库注册以及签署符合性声明等一系列审核和评估义务。②
从中观层面看,人工智能的应用安全是保障社会秩序稳定的重要方面。各国国内不同种类的人工智能应用层出不穷,人们在体验人工智能技术红利的同时,也可能陷入人工智能歧视性风险、失控风险、侵权风险等社会安全风险为防范此类风险,联合国“AI决议”促请各会员国采取具体措施消除数字性别鸿沟。③欧盟专门针对大型网络科技公司制定《数字市场法》(Digital Market Act),防止出现“数据垄断”和 “数据滥用”的情形。④因此,针对人工智能系统可能出现异化的现象,联合国“AI 决议”与欧盟均不约而同地制定规则规制高风险人工智能系统的相关利益方,确保高风险人工智能系统在社会应用过程中保持安全的状态。
从宏观的视角看,人工智能的安全因素还体现在国家利益不受人工智能技术损害。一方面,人工智能技术的价值导向应当与国家的核心价值保持一致,尽可能避免人工智能技术在国际政治领域成为外部介入的工具。例如,欧盟将自身的价值观融入 AIA之中,以规则治理的方式对人工智能技术的价值取向进行了规定。⑤另一方面,人工智能系统还可能被部署并应用于国家重要的关键设施。因此,人工智能的安全因素还囊括防范人工智能技术的异化,保障人工智能技术能够在一国关键的基础设施上安全顺利地运行。
3. DEPA 第 8.2.3 条“负责任”要求的国际共鸣
DEPA人工智能条款的负责任要求是人工智能法律制度的有力保障。联合国“AI决议”序言第6段规定人工智能系统需满足负责任的要求。与此类似,2023年2月 1日,欧盟与新加坡签署的《欧盟—新加坡数字贸易伙伴协议》(European Union-Singapore Digital Partnership,EUSDP)以及作为该协议成果的《数字贸易原则》 (Digital Trade Principles)均对负责任的人工智能有所规定。EUSDP第29段规定,缔约双方都将努力促进和支持人工智能在商业以及社会中负责任的使用。同时,在上述《数字贸易原则》“商业信赖”(business trust)项下的“人工智能”部分,双方更为直接地阐明欧盟与新加坡对发展可信、安全以及负责任的人工智能治理框架的高度重视。由于新加坡既与欧盟达成数字贸易相关协议,又是DEPA缔约方,且新加坡与欧盟和DEPA缔约方签署的数字贸易协议对负责任的人工智能具有类似的规定。可见,欧盟与DEPA缔约方就人工智能治理框架有基本的共识。经济发展与合作组织 (OECD)也于2019年5月22日发布《理事会关于人工智能建议》(Recommendation of the Council on Artificial Intelligence,以下简称《建议》),该《建议》第1款也指出“负责任地管理可信的人工智能原则”。①虽然美国并未表明与DEPA第8.2.3 条人工智能治理框架中负责任要求的互动,但借由该《建议》可以看出,作为OECD 成员国的美国通过国家实践将负责任要求嵌入其人工智能治理框架之中。
此外,欧盟、美国等国际组织或国家在区域法律制度或国内法律制度中丰富了 DEPA人工智能条款“负责任”要求的内涵。在法学语境之下,“责任”是指由违法行为所引起的不利法律后果。负责任的人工智能表面上看是人类与机器之间的关系,但实质是人与人之间的关系。人的主体地位是人工智能监管的基本出发点(陈凤仙等,2024)。因此,负责任的人工智能本质上是法律主体的负责任,而非人工智能系统的负责任。在人工智能系统全生命周期之中,法律主体至少包括设计人工智能系统的开发者和使用人工智能系统的部署者。除此之外,负责任因素的内涵也囊括监管机构承担的监管责任。
就人工智能“负责任”的具体要求而言,首先,人工智能的开发者是设计和研发人工智能系统的法律主体。当人工智能系统由于设计缺陷产生不利后果时,人工智能系统的开发者应当承担法律责任(Virginia Dignum,2019)。其次,当人工智能系统根据原有设计目的运行时,使用人工智能系统的部署者也有可能侵犯他人权利,因而产生法律责任。如在制定AIA的过程中,欧盟着力关注人工智能系统使用过程中部署者与其他法律主体之间的责任分配。②最后,由于人工智能技术的应用可能引发社会歧视、危害公共社会秩序等社会性损害风险,因此仅针对人工智能技术的开发者、部署者等进行法律责任的分配还不足以完全消弭上述社会性损害风险,需要引入外部的监管者对人工智能应用进行监管,以保障国家安全和社会公共秩序。如欧盟AIA引入了风险责任分级机制,采取了类金字塔的方式对人工智能进行分级监管,为行政机关介入人工智能的监管提供了便利。而美国也在《2018年美国联邦航空局再授权法案》(FAA Reauthorization Act of 2018)规定,联邦航空管理局应当定期审查航空领域人工智能的应用。①
(三) DEPA 第 8.2.4 条“价值取向”的国际共鸣
法律不仅是“一套规则的体系”,更是“一套意义的体系”,作为意义体系的法律意味着其规则中包含着一些特定的价值诉求和价值判断(金欣,2022)。因此,人工智能的法治化治理离不开法律价值判断。DEPA第8.2.4条“价值取向”在一定程度上指明了人工智能治理的法律价值,也同时获得了国际社会的共鸣。
首先是DEPA第8.2.4条中“可解释”和“透明”价值取向的国际共鸣。“可解释”和“透明”在价值内涵上具有相当程度的重合。“可解释”和“透明”的价值内涵均囊括对人工智能系统信息的披露,而且都要求人工智能可被民众所理解。联合国 “AI决议”要求会员国提高公众对人工智能系统的核心功能、能力、局限性和适当民用领域的认识和了解。②同时,“可解释”和“透明”也都被欧盟和美国视为原则性价值取向,适用于治理所有人工智能系统。例如,欧盟委员会发布的上述《可信的人工智能伦理手册》明确将“透明”与“可解释”作为约束人工智能系统的原则。
其次是DEPA第8.2.4条中“公平”价值取向的国际共鸣。“公平”是法律正义价值的根本体现,DEPA人工智能条款将“公平”作为价值取向之一凸显了人工智能规则须具备基本的正义价值。联合国“AI决议”第7条要求人工智能系统的发展符合公平的价值取向。欧盟与美国同样将“公平”作为本区域或国内人工智能规则的价值取向之一。例如,欧盟AIA要求人工智能系统的开放和使用方式均需避免不公平的偏见。③美国国家标准技术研究院于2023年1月发布《人工智能风险管理框架》 (Artificial Intelligence Risk Management Framework,下称“AI RMF”),规定人工智能须具备“公平”价值,包括以平等的方式处理不恰当的歧视与偏见。④
最后是DPEA第8.2.4条中“以人为本”价值取向的国际共鸣。“以人为本”的人工智能价值内涵强调人工智能技术的发展需要具有人文关怀和社会责任,避免侵害人类的基本权利。联合国“AI决议”第5条强调,必须在人工智能系统的整个生命周期内尊重、保护和增进人权和基本自由。欧盟、美国也均未忽视人工智能技术应用可能对人权造成的损害。如欧盟AIA第1条明确规定,AIA的立法目的是促进以人为本的人工智能应用。美国则以软法形式的指导准则规定人工智能技术应当具备“以人为本”的价值取向。
四、 DEPA 人工智能条款的中国因应
继中国向DEPA正式提出加入申请之后,2022年8月,中国加入DEPA工作组正式成立,全面推进中国加入DEPA的谈判。此举标志着中国在新发展格局下将进一步扩大高水平对外开放,与DEPA各成员加强数字经济领域合作、创新和可持续发展,并与DEPA各成员共同参与人工智能治理的国际合作。虽然DEPA采取模块形式供参与方选择加入,但是,为拓宽数字经济发展、做强做优做大数字经济,中国应当尽力加入DEPA各模块,融入新兴技术领域的国际新规则,参与构建良好的国际治理合作环境。
(一) 中国应对 DEPA 人工智能条款的现状
自申请加入DEPA以来,中国已逐步开展与DEPA人工智能条款的对接。一方面,国务院要求部分自由贸易试验区率先尝试对接DEPA人工智能条款。例如,2023 年12月7日,国务院发布的《全面对接国际高标准经贸规则推进中国(上海)自由贸易试验区高水平制度型开放总体方案》(下称“总体方案”)指出,上海自由贸易试验区应率先实施高标准数字贸易规则。①其中,《总体方案》第四部分“四、率先实施高标准数字贸易规则”项下第31段和第32段专门规定上海自由贸易试验区可借鉴国际经验,研究建立人工智能技术的伦理道德和治理框架,支持可信、安全和负责任地使用人工智能技术。另一方面,中国更立足全球视野,于2023年10月向国际社会发出 《全球人工智能治理倡议》。该倡议的核心内容与DEPA人工智能条款的规定不谋而合,两者均要求形成“可信”“安全”和“负责任”的人工智能治理框架,以及倡导 “透明”“可解释”“公平”和“以人为本”的人工智能治理价值取向。
虽然现今中国的人工智能治理标准与DEPA人工智能规则的对接在逐步推进,但无论是人工智能立法的进度,还是现阶段中国人工智能规则的可操作性等依旧需要不断地跟进与磨合。2024年国务院发布的《政府工作报告》提出,中国将与更多国家和地区商签高标准自贸协定和投资协定,如推进中国—东盟自贸区3.0版谈判,推动加入《数字经济伙伴关系协定》《全面与进步跨太平洋伙伴关系协定》。因此,在把握 DEPA人工智能条款的核心内容,结合DEPA人工智能条款国际共鸣的基础上,下面将尝试为中国未来对接DEPA人工智能条款要求探寻可行的路径。
(二) 中国应对 DEPA 人工智能条款的建议
1. 支持 DEPA 人工智能治理的共识:提升人工智能治理的国际合作水平
“独行快,众行远”。面对人工智能可能跨越国界产生个人或社会的风险,中国一向倡导人工智能治理领域的国际合作。在国内治理层面,《中华人民共和国网络安全法》《个人信息保护法》《生成式人工智能服务管理暂行办法》等法律法规均鼓励人工智能的相关技术、数据等方面积极开展国际交流与合作,推动相关国际规则的制定。在国际治理层面,中国先后发布《全球数据安全倡议》《全球人工智能治理倡议》等文件,提倡秉持共商共建共享的理念,协力共同促进人工智能治理。另外,如上所述,在联合国大会上,中国与其他会员国首次以协商一致的方式通过了人工智能领域的决议草案。除此之外,中国学界也在人工智能治理领域积极作为。如2024年 3月16日,来自7家单位的起草专家组在“AI善治论坛人工智能法律治理前瞻”专题研讨会上发布了《人工智能法(学者建议稿)》(以下简称《学者建议稿》)。①其中,该建议稿单独设置“国际合作”章节(第七章),突显了人工智能国际治理合作的重要性,并明确了人工智能治理国际合作的具体规则。②
尽管如此,中国依然存在人工智能治理合作伙伴较少以及缺乏实质性人工智能治理国际合作内容等问题。因此,中国可以从两个方面提升人工智能治理的国际合作水平。一方面,中国应当通过加入DEPA并主动接受其人工智能条款,扩大人工智能治理的国际合作交友面,尽可能地保持自身与DEPA缔约方之间人工智能治理框架的共同一致。另一方面,中国可在人工智能的算法、算力和数据治理等方面广泛地开展国际合作,尽可能地加强与国际社会的交流与合作,分享经验、开展联合研究并共同制定规范,以提高人工智能的治理水平。例如,中国可利用国家人工智能创新应用先导区,打造高端化国际开放平台,持续提升算法规则、数据使用、安全保障等方面的合作治理。
2. 满足 DEPA 人工智能治理框架的内核:以可信、安全和负责任为要求
人工智能技术在促进经济高质量发展的同时,也可能涌现出不同领域内的人工智能治理风险(薛澜等,2024)。正因如此,DEPA第8.2.3条要求各缔约方应当努力采用可信、安全和负责任的人工智能治理框架。为成功对接DEPA人工智能条款,中国应在人工智能技术迭代之际,从满足DEPA人工智能治理框架的要求入手,迈向可信、安全和负责任的协同型人工智能治理。这里的协同型人工智能治理主要指面向新兴人工智能技术,采取以多元治理主体参与、以协同一致的治理措施以及开放融合的治理方式为核心的人工智能治理。中国可从如下三个方面入手。
第一,调动多元治理主体的参与。多元治理主体参与人工智能治理能够促进社会公众对人工智能技术的理解,以软法与硬法相结合的方式增强人工智能的可信因素,进而符合DEPA人工智能条款的“可信”要求。多元治理主体的参与意味着包括政府、行业组织、企业和公众在内的所有利益攸关方分享治理权,共同开展治理活动。因为传统“政府—市场”的治理模式无力顾及人工智能技术的全流程,因此,仅采用传统的治理模式将造成治理成本急剧升高,进而降低治理效率。多元治理主体参与治理强调以政府治理作为主轴,同时充分发挥行业组织的自治能力和社会公众的治理能力。
第二,确保治理措施的协同一致。治理措施的协同一致与DEPA人工智能条款的 “安全”要素相互共鸣。治理措施的协同一致要求将人工智能治理形成系统的治理机制,避免人工智能治理过程中存在治理监管的空白,最大限度地保障人工智能应用过程中的技术安全、社会安全和国家安全。在此基础上,治理措施的协同一致还需要对重点治理领域采取明确的治理指引,并厘清交叉治理中的共管部分,协同各部门、机构进行共同治理,避免形成“九龙治水”的困局。
第三,采用开放融合的治理方式。开放融合的治理方式与DEPA人工智能条款的 “负责任”要求存在紧密互动关系。开放融合的治理方式意味着除了通过制定新的立法以应对新技术发展带来的新的法律现象和法律责任,还应考虑通过法律解释等方法将人工智能技术与法律现象一一涵摄,充分利用已有法律理论和法律规定,通过对其进行现代化背景下的升级理解,用以解决人工智能产生的法律责任问题。另外,2024 年2月3日,上海市人民政府发布《总体方案》的实施方案,以制定人工智能伦理规范指南、发布企业人工智能伦理安全治理制度示范案例等软性监管方式,进一步细化 《总体方案》“负责任”使用人工智能技术的要求。①此举措可在全国范围内推广。
3. 秉承 DEPA 人工智能治理框架的价值取向:以可解释、透明、公平和以人为本为导向
数字贸易自由化是数字贸易国际规则谈判的核心内容,其实现离不开非关税壁垒的削减(谭观福,2021)。中国一直以来强调数字贸易、数字经济、数字技术的创新发展,并坚持在发展中规范,在规范中发展的原则。鉴于目前各国对数据的治理尚处于探索阶段,人工智能的治理也相对落后,整体处于萌芽阶段。中国先后发布了 《新一代人工智能治理原则——发展负责任的人工智能》《全球人工智能治理倡议》 《人工智能全球治理上海宣言》等倡议性文件,指导性地提出了人工智能治理的主要方向。虽然中国关于制定可实施的人工智能治理规则才刚刚起步,但是中国已经尝试对接国际高标准人工智能治理规则。由此可见,中国在成为世界第二大经济体后依旧坚持深化改革、扩大开放,并积极参与全球人工智能治理等新兴国际法领域的规则制定。同时,中国重视本国批准或者加入的国际条约在国内的实施,重视一般国际法、对中国有相应法律效力的各种国际法规则的落实(柳华文,2020)。鉴于中国已经申请加入DEPA,在国内法层面,中国贯彻实施可解释、透明、公平和以人为本的人工智能治理价值方面还有完善的空间。
一方面,虽然“可解释”和“透明”的要求已被现有法律吸收并作为应当遵循的法律原则,但是部分立法用语的模糊性可能无法完全实现“可解释”和“透明”的价值取向。例如,由于人工智能应用一般需要大量个人信息以便向用户提供个性化服务,因此,人工智能的应用常常具有过度收集个人信息的倾向性。虽然《个人信息安全法》第16条规定了个人信息处理者在为个人提供产品或服务时,不得以个人不同意处理其个人信息或者以撤回同意为由,拒绝提供产品或服务;但同时又规定了处理个人信息属于提供产品或服务所必需的除外,即个人信息处理者在“必需”时,可以以个人不同意处理其信息而拒绝提供产品或服务。那么,此处的“必需”如何理解似乎尚缺乏相应的指引,使得运用人工智能收集个人信息时“可解释”和“透明”的价值取向无法得到落实,因此,有待未来立法或司法部门进一步澄清。
另一方面,“公平”和“以人为本”作为人工智能治理框架的重要价值取向,在当前人工智能领域的个人信息保护规则中仍然存在法律留白。我国《个人信息保护法》第62条第2款明确规定,国家网信部门应针对人工智能新技术制定专门的个人信息保护规则。但至今为止,我国人工智能领域的个人信息保护规则仍然缺位,具体规则的缺失将导致企业难以调适人工智能技术发展与个人信息保护之紧张关系,进而难以有效实现“公平”和“以人为本”的价值取向。相较而言,无论是欧盟还是美国,制定人工智能领域的个人信息保护方面有可供借鉴的经验。例如,欧盟AIA为实现 “公平”和“以人为本”的人工智能治理价值取向,禁止收集个人生物识别数据以推断个人的政治观点、工会成员身份、宗教或哲学信仰、种族、性生活或性取向。①如果中国人工智能治理规则缺乏对个人信息的充分保护,将可能直接制约中国人工智能企业获取国外用户数据,进而阻碍中国人工智能企业在海外的发展。因此,中国应当尽快拟定人工智能运用过程中个人信息保护的国内规则或标准,以软法和硬法相结合的方式,实现包括个人信息安全等在内的人工智能技术规制规则的落地和健全,避免他国利用中国国内规则的缺失或不足,阻碍中国企业“出海战略”的实施和推进。当前,《学者建议稿》第34条(隐私和个人信息保护)可为未来人工智能领域的个人信息保护规则立法提供指导意义。该条不仅确认了人工智能开发者和提供者应当保护个人信息权益,并具备事先向个人通知安全风险的法律义务,而且要求在未经个人同意或法律规定的其他情形下,人工智能开发者和提供者不得利用人工智能分析、评估个人健康、经济等信息。基于此,通过人工智能治理规则的完善及实践的丰富,也可进而满足DEPA人工智能条款所要求的可解释、透明、公平以及以人为本的价值取向。
五、 结语
随着人工智能技术的应用与普及,全球范围内人工智能技术带来的挑战和风险迅速扩散与蔓延。由于人工智能技术呈现出跨国家、跨文化和跨领域的全球化属性,单个国家已无法有效应对人工智能带来的挑战。因此,全球范围内的人工智能治理势在必行。在国际经贸领域,DEPA作为全球首个专门针对数字贸易规则所达成的协定,以软法化的方式对人工智能的全球治理进行了规制。DEPA人工智能条款的软法化主要体现在其条款的内容之中。DEPA人工智能条款的软法化内容不仅囊括各缔约方在人工智能国际合作方面的软性治理规则,而且在人工智能的治理框架以及人工智能的价值取向方面也以原则性、理念性作为规则的主要特征。同时,国际社会有关人工智能治理的规则已经逐渐与DEPA人工智能条款中的治理框架形成了或有意或不约而同的共鸣与互动。如文中所述,联合国大会首次通过了人工智能领域的决议草案,欧盟、美国等也在积极制定与人工智能治理相关的法律规则。由此可见,由于国际软法与国际硬法之间的互补关系,基于国际硬法与国际软法的“中心—外围”之构造,DEPA人工智能条款未来也将通过国家实践,尤其是大国在人工智能治理领域的国家实践,逐步填补其中抽象性概念的内涵与外延,催生软法化条款转向更具法律约束力的条款。现阶段,中国已经正式申请加入DEPA,毫无疑问,中国需要考虑接受 DEPA人工智能条款的约束。一方面,DEPA人工智能条款将是中国对接DEPA所要直面的挑战;另一方面,DEPA人工智能条款的软法化内容也将推动中国提高对人工智能技术的治理能力,降低人工智能技术可能带来的次生风险。
① UN. Seizing the Opportunities of Safe, Secure and Trustworthy Artificial Intelligence Systems for Sustainable Development, A/RES/78/265, 1 April 2024.
① 联合国教科文组织,《人工智能伦理问题建议书》,文件编号SHS/BIO/REC-AIETHICS/2021,2021年11月23日。
①《全面与进步跨太平洋伙伴关系协定》(Comprehensive and Progressive Agreement for Trans-Pacific Partnership,CPTPP)第25章为 “监管协调”(Regulatory Coherence)章节。另外,有学者在论及数字贸易规制合作时强调各国在双边、区域以及多边层面通过数字贸易规则进行国际合作(彭德雷,2019)。
② 人工智能的治理合作属于对数字技术的治理合作。有学者认为,各国主要从两个维度进行数字技术治理合作:一是缔结区域贸易协定等具有法律约束力的“硬法”;二是制定专业指导方针、标准、行为准则等不具有法律约束力的“软法”(周念利和吴希贤,2023)。
① Bletchley Declaration by Countries Attending the AI Safety Summit. (2024-11-01) [2025-06-02].https://www.gov.uk/government/ publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safetysummit-1-2-november-2023.
① European Parliament and the Council of the European Union, Regulation (EU) 2024/1689, EUR-Lex, Document 32024R1689.
② See AIA recital 12.
③ European Commission, Ethics Guidelines for Trustworthy AI, 2019.
① White House, Accelerating Federal Use of AI through Innovation, Governance, and Public Trust, 2025.
② 参见联合国“AI决议”第6(k)条。
③ AIA Recital 27.
④ 在2021年4月欧盟委员会提交欧盟议会审议的AIA法案中,该术语为“用户”(user),在2023年6月欧盟议会审议时,将“用户” 更名为“部署者”。部署者是指在其权限内使用人工智能系统的任何自然人或法人、公共机关、机构或其他团体,但在个人非职业活动中使用人工智能系统的情况除外。See AIA article 3(4).
⑤ United States House of Representatives, Algorithmic Accountability Act of 2022, H.R.6580, 3 February 2022.
⑥ 参见联合国“AI决议”第6(h)条。
⑦ AIA Recital (7) , Recital (31) , Article 5.1 (c) .
① 参见联合国“AI决议”第6(b)条。
② AIA article16.
③ 参见联合国“AI决议”第6(p)条。
④ European Parliament and the Council of the European Union, Regulation (EU) 2022/1925, EUR-Lex, Document 32022R1925.
⑤ AIA recital (1) .
① Organisation for Economic Co-operation and Development, Recommendation of the Council on Artificial Intelligence, OECD/ LEGAL/0449, 22 May 2019.
② European Council, Artificial Intelligence Act: Council and Parliament Strike a Deal on the First Rules for AI in the World. (2024-05-03) [2025-06-02].https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliamentstrike-a-deal-on-the-first-worldwide-rules-for-ai/.
① FAA Reauthorization Act of 2018, Pub. L. No.115-254, 548, 132 Stat.3378, 3186-3147 (2018) .
② 参见联合国“AI决议”第6(d)条。
③ AIA Recital (27) .
④ National Institute of Standard and Technology, Artificial Intelligence Risk Management Framework (AI RMF1.0) , 1 January 2023.
① 国务院,《全面对接国际高标准经贸规则推进中国(上海)自由贸易试验区高水平制度型开放总体方案》的通知,国发[2023]23 号,2023年12月7日。
① AI善治论坛在京召开发布《人工智能法(学者建议稿)》[EB/OL].(2024-03-18)[2025-06-02]. http://www.fxcxw.org.cn/html/ 68/2024-03/content-26910.html.
②《中华人民共和国人工智能法(学者建议稿)》第78条和第80条。
① 上海市人民政府,《上海市落实〈全面对接国际高标准经贸规则推进中国(上海)自由贸易试验区高水平制度型开放总体方案〉 的实施方案》的通知,沪府发〔2024〕1号,2024年2月3日。
① AIA recital (30) .