一、概述
(一)通用人工智能模型及通用人工智能系统
根据欧盟《人工智能法案》(以下称“法案”)的规定,“通用人工智能模型”是指这样一个人工智能模型,包括在使用大量数据进行大规模自我监督训练时,无论该模型以何种方式投放市场,都显示出显著的通用性,能够胜任各种不同的任务,并可集成到各种下游系统或应用中。这不包括在投放市场前用于研究、开发和原型设计活动的人工智能模型。换言之,“通用人工智能模型”是指具有通用性,且能够胜任各种任务的人工智能模型。与传统的人工智能模型不同,通用人工智能具有更广泛的范围和自主性,其平滑的可扩展性使其无需大量培训即可处理来自不同领域的输入。[1]
通用人工智能模型不同于通用人工智能系统,后者是指以通用人工智能模型为基础的人工智能系统,例如Chatgpt-4,该系统具有服务于各种目的的能力,既可直接使用,也可集成到其他人工智能系统中。换言之,通用人工智能系统是指可以完成或适应完成一系列不同的任务(包括一些不是故意和专门训练的任务),或最初提供者没有预见或声明的目的(任务)的一种人工智能系统。[2]但是,有学者认为,欧盟对通用人工智能系统的定义过于宽泛,将产生一些不利影响。[3]
(二)通用人工智能模型的分类
1. 分类标准(第51条第1款)
第51条 第1款 如果一个通用人工智能模型符合以下任何一项标准,则应将其归类为具有系统性风险的通用人工智能模型:
(a) 根据适当的技术手段和方法,包括指标和基准,对其影响能力进行评估;
(b) 根据委员会依职权做出的决定,或在科学小组提出有保留的警告后,考虑附件十三设定的准则,认为通用人工智能模型具有与a点相同的能力或影响。
第2款 根据第1款a点,当一个通用人工智能模型用于训练的累计计算量,以浮点运算计大于10^25时,应推定该模型具有高影响能力。
该条款规定通用人工智能模型的分类,明确将通用人工智能模型规定为具有系统风险的通用人工智能和其他通用人工智能。
换言之,在满足欧盟规定的技术标准的情形下,此种类别的通用人工智能则会被认定为具有系统风险。而该技术标准是不断更新的,正如欧盟法案所规定的那般,委员会须根据不断进步的技术对该标准进行更新,以顺应社会科学技术的发展,反映先进技术水平。
2. 评估程序(第52条)
对“具有系统风险的通用人工智能模型”的评估程序可细分为两种情形:
一是基于提供者主动通知而产生的评估程序,如图1所示:
图1
二是委员会基于职权对通用人工智能模型进行评估,程序如图2所示:
图2
3. 分类之正当性分析
欧盟法案将具有系统风险的通用人工智能模型独立出来具有极其重要意义。
根据欧盟委员会所发表的对法案的解答,其采用了一种基于风险的方法,将人工智能系统的风险分为四个级别,并确定了通用模型特有的风险。[4]故而,法案将人工智能系统分为:(1)不可接受的风险;(2)高风险;(3)有限风险;(4)低风险或最小风险。欧盟委员会亦基于同样的方法,将通用人工智能模型分为具有系统风险的人工智能模型及其他通用模型。
需要注意的是,虽然欧盟所采取的基础分类方法相同,但是并不意味着具有系统性风险的通用人工智能模型即为高风险人工智能系统,二者非互换等同之概念。换言之,两者的具体分类标准是不同的。例如,某个人工智能模型虽在技术上符合高风险的标准,但由于其受到严格控制,从而降低了对公共安全或社会的影响,该模型不应被归类为具有系统风险的模型。
鉴于人工智能的使用具有其特殊性(如不透明性、复杂性、对数据的依赖性、自主行为),可能会对一些基本权利和用户的安全产生不利影响,[5]不同风险级别的人工智能提供者更应当承担不同的义务。通用人工智能模型亦是如此,具有系统风险的通用模型具有更大的潜在影响,法案单独规定具有系统风险的通用人工智能模型具有一定的正当性。
二、所有通用人工智能模型提供者的义务
(一)程序义务
1. 符合有关条件的提供者具有及时通知义务
该义务的主体是满足法案第51条第1款第a点要求的通用模型提供者,即有关通用模型提供者须在知道或者应当知道模型满足上述要求的两周内通知委员会,不满足该要求的提供者无需承担该项义务。通知应当包括可以证明满足该要求的必要信息,可以包括证明该模型虽满足要求但不具有系统风险的充分证据。若委员会在规定时间内未收到通知,则可将该通用模型指定为具有系统风险的通用模型,有关提供者须承担本法第55条所规定的义务。
2. 提供者可提供证据证明其模型不具有系统风险
严格来说,此项并非属于有关提供者的义务,法案有关规定为:有关提供者可以在通知中提供可以证明其模型虽满足要求但不具有系统风险的充分证据。按照该法案的规定,提供者当然可以选择不提供。但是若提供者不提供,委员会可将其模型认定为具有系统风险的通用模型,提供者则需承担更多的义务。
(二)实体义务
1. 提供义务
a.编制并更新模型的技术文件,即通用人工智能模型提供者应要求向人工智能办公室和国家主管机关提供有关技术文件,包括但不限于该模型的训练和测试过程及其评估结果,法案亦要求提供者所提供的技术文件至少应当包含与模型的规模和风险状况相适应的信息,如对通用人工智能模型的一般性描述及其开发过程等描述。
b.编制、更新、提供模型的有关信息及文件,需要注意的是,该项提供义务对象并非人工智能办公室及有关国家机关,而是意图将通用人工智能模型纳入其人工智能系统的人工智能系统提供者。通用人工智能模型是其他人工智能系统的基础,只有下游提供者完全了解该模型的功能、用途等信息,才能更为精确地制作人工智能系统,保障人工智能市场。
c.为了促进技术的发展与创新,对于免费且对公众开放使用的人工智能系统,该法案并不要求该模型提供者提供有关信息与文件,这是因为此类模型提供者需要确保高水平的透明度和公开性,有关信息与文件完全透明,因而无需要求该提供者承担相应的提供义务。但是,该法案亦明确规定,若模型存在系统性风险,即使该模型是免费且向公众开放,其提供者亦需承担相应的提供义务,以保障社会安全与稳定。
2. 公开义务
仅限于免费且开源许可向公众提供的人工智能模型的提供者。正如上文所说,此类提供者不具有上述提供义务,但是需要将有关信息与文件充分公开。
3. 合作义务
所谓的合作义务,是指通用人工智能模型提供者在行使法案所规定的权限和权力时,应当与委员会和国家主管机关进行必要的合作。以认定通用人工智能模型是否具有系统性风险的程序为例,该程序就直接体现了提供者与委员会和国家主管机关的合作。
4. 保密义务
根据法案的规定:“本条规定获得的任何信息和文件,包括商业秘密,均应按照第78条规定的保密义务处理。”该78条要求委员会及任何有关自然人或法人遵守执行任务或活动中所获得的信息和数据的保密性,特别保护知识产权、商业秘密等。
以商业秘密为例,通用人工智能模型提供者所撰写的与该模型模拟、开发等有关的信息、文件可构成商业秘密受到反不正当竞争法的保护,其他主体不可任意使用他人的商业秘密,但是反不正当竞争法对商业秘密的保护并没有强制性规定有关主体具有保密义务,对商业秘密的保护存在一定的缺陷。而对商业秘密的保护,保密是关键。只有有关信息、文件的秘密性得到保障,有关主体才能取得竞争优势,获得商业利益。故而,法案规定通用人工智能模型提供者具有保密义务具有一定的合理性。
5. 授权义务
该义务是指,若在欧盟之外设立的提供者欲在欧盟市场上投放通用人工智能模型,应在投放之前与一名在欧盟内设立的授权代表订立书面授权协议,授权该主体在欧盟市场进行商业活动,而不能自己在欧盟市场进行商业活动。欧盟内部的主体对欧盟的法律规定更为了解,要求提供者必须授权他人在欧盟市场投放通用人工智能模型,有利于对通用人工智能进行规制,且有助于促进该法案的实施。
在免费且开源许可下向公众开放的通用人工智能模型提供者不具有此项义务,除非相应通用人工智能模型存在系统性风险。
6. 其他
法案明确规定,在统一标准公布之前,通用人工智能模型的提供者可以依靠第56条所指的行为守则来证明其遵守法案所规定的义务。
而对于提供者是否履行义务,欧盟尚未规定出统一标准,这就导致对提供者的规制出现困难,而这条规定无疑解决了这一困境。提供者可以依靠行为准则来证明自己遵守了相关义务。在统一标准公布之后,提供者遵守欧盟统一标准即可推定其满足要求。
三、授权代表的权利义务
正如上文所述,欧盟以外设立的提供者应当授权欧盟内有关主体代替其在欧盟市场从事商业活动,该授权代表亦需承担相应的义务,同样也享有一定的权利。
(一)义务
授权代表应根据合同约定,执行提供者书面授权合同中所规定的任务,包括但不限于以下:
a.核实有关技术文件是否已经编制,以及提供者是否履行了法案规定的所有义务;
b.在该通用目的人工智能模型投放市场后的10年内,向人工智能办公室和国家主管机关提交一份有关技术文件副本以及指定授权代表的提供者的详细联系信息,以供有关机关保存;
b.在收到确有理据的要求的情况下,向人工智能办公室提供所有必要的信息和文件;
c.在人工智能办公室和国家主管机关提出合理要求后,与其进行合作。
(二)权利
第54条 第4款 授权代表应有权在与确保遵守本条例有关的所有问题上,除提供者外,或代替提供者,接受人工智能办公室或国家主管机关的询问。
第5款 如果授权代表认为或有理由认为提供者的行为违反了本条例规定的义务,则应终止授权。在这种情况下,授权代表也应立即将任务终止及其原因通知人工智能办公室。
根据该两款的规定,授权代表享有接受询问权及终止授权权。前者是指,授权代表在接受询问时与提供者具有相同的地位,且授权代表的回答与提供者具有相同的效力。至于后者,该法案赋予了授权代表终止授权的权利,当授权代表认为提供者违反义务时,可以终止授权,从而避免其遭受有关机关的追责。后项权利无疑减轻了授权代表的责任,有助于促进该法案的实施。
四、具有系统风险的通用人工智能模型提供者的特有义务
此类提供者除了具有上述义务外,还具有其他义务,包括:
首先,模型评估义务,即提供者应当根据反映先进技术水平的标准化协议和工具进行模型评估,包括对模型进行对抗测试并记录在案,以识别和降低系统性风险。具有系统风险的通用人工智能模型具有潜在危险,可能损害他人合法权益,对此类模型应该进行严格的评估,以判断此类模型的风险程度,这也是一种合规义务。
其次,评估及减轻风险义务,即提供者应当评估和减轻欧盟层面可能存在的系统性风险,包括因开发、投放市场或使用具有系统性风险的通用人工智能模型而产生的系统性风险的来源。
再者,跟踪、记录及报告义务,即提供者应当跟踪、记录并及时向人工智能办公室等报告严重事件的相关信息以及为解决这些问题可能采取的纠正措施。此类通用人工智能模型的提供者应当对其所提供的模型的安全进行保障,应当不断跟踪、记录模型有关信息,并向有关机关报告,保护公共利益。
最后,提供网络安全保护义务,即提供者应当确保对具有系统风险的通用人工智能模型和模型的物理基础设施提供足够水平的网络安全保护。网络安全保护应充分考虑模型的意外泄漏、规避安全措施,以及防御网络攻击、未经授权的访问或模型失窃等。提供者可以通过确保模型权重、算法、服务器和数据集的安全来促进这种保护,例如通过信息安全的操作安全措施、具体的网络安全政策、适当的技术和既定解决方案,以及网络和物理访问控制,以适应相关情况和所涉及的风险。
具有系统风险的通用人工智能模型的提供者亦具有保密义务,但是该项保密义务与前文所述保密义务并无不同,在此不再赘述。此外,该类模型的提供者同样可以按照行为准则证明自己已经履行了义务。需要注意的是,具有系统性风险的通用人工智能模型的提供者如不遵守经批准的行为守则,应证明有其他适当的合规手段,以供委员会批准。
义务汇总图
五、行为守则相关内容
法案具有一定的进步意义,然而,其仍存在一定的不足。一方面,目前各方对人工智能法律规制尚处于探索阶段,现存法案并不完善;另一方面,人工智能是不断发展的,预先制定而具有滞后性的法案在某种程度上无法对人工智能进行完整、全面地规制。正是由于上述原因,法案明文规定了行为守则,是以填补法案的空白,有效规制人工智能。
(一)行为守则起草方案
根据法案的规定,人工智能办公室可邀请通用人工智能模型的提供者以及相关国家主管机关参与行为守则的起草工作。其他公民、社会组织、行业、学术界和其他利益相关方,如下游提供者和独立专家,可协助起草工作。
(二)行为守则内容要求
首先,人工智能办公室和人工智能理事会应确保行为守则涵盖第53条和第55条规定的义务等内容。这是因为在第53条和第55条中,欧盟明确规定了提供者可以按照行为守则来证明其履行了义务。只有行为守则涵盖这些义务,行为守则才能发挥其证明作用,才能满足法律规定。
其次,行为守则应当明确规定其具体目标,并包含承诺或措施,包括适当的关键绩效指标,以确保实现这些目标,并在联盟层面适当考虑所有相关方,包括受影响人员。
(三)行为守则之监督
行为守则起草参与者应当定期向人工智能办公室报告承诺的履行情况和所采取的措施及其结果,包括酌情根据关键绩效指标进行衡量。人工智能办公室和欧洲人工智能委员会应根据参与者的报告定期监测和评估参与方实现行为守则目标的情况及其对正确实施本条例的贡献。
(四)行为守则之审查与调整
当出现新的标准时,人工智能办公室应及时对行为守则进行审查和调整。
根据法案的规定,行为守则最迟应在本法案生效之日起九个月之前准备完毕。人工智能办公室应采取相应必要措施。如果自生效之日起12个月内,行为守则无法准备完毕,或者人工智能办公室在评估后认为行为守则仍不充分,则委员会可通过实施法案提供共同规则,以履行第53条和第55条规定的义务,包括其他要点。
(五)行为守则之效力
法案明确规定,通用人工智能模型提供者可以按照行为准则证明自己已经履行了法案所规定的义务。换言之,行为守则可用于证明提供者已履行义务。这些行为守则作为一套自愿性的标准,旨在促进通用人工智能模型提供者在缺乏具体法律的情况下,依然能够确保人工智能模型的合规性和道德性。
六、总结
欧盟《人工智能法案》是世界上第一部关于人工智能的法律,对我国具有非凡的借鉴意义。特别是对于通用人工智能模型的有关规定,十分值得学习。总体而言,法案对通用人工智能模型的规制包括如下方面:
首先,法案明文规定了通用模型的分类及分类的标准、程序。
其次,法案规定了相关主体的义务,以确保人工智能模型的合规性,包括通用人工智能提供者的提供义务、公开义务、保密义务等等。
最后,法案还特别规定了具有系统风险的通用模型提供者之特殊义务,进一步完善了对人工智能模型的规制,保护相关主体的合法权益。最后,法案特别规定了行为守则的起草主体、内容等要求,行为守则可用于补充现行法案的不足,具有一定的现实意义。