0
用微信扫码二维码
分享至好友和朋友圈
![]()
制图:天工智研
生成式人工智能的行政监管困境及其纾解
袁周
(东南大学法学院博士生)
[摘 要]
生成式人工智能的开放性、复杂性和高速迭代性给行政监管带来对象难以确认、主体能力不足以及过程较为封闭的治理难题。人工智能监管的现行法律应对其负起责任,认真对待监管对象转移、组合式监管乏力以及监管程序缺漏的问题。对此,应引入整体性治理理论,将监管对象整合为生成式人工智能的大模型产品,将监管资源整合至网信部门,由其主要负责生成式人工智能的监管,并通过构建整体性的程序机制,实现监管程序的民主化与规范化。
[关键词]
生成式人工智能;ChatGPT;行政监管;监管组织;行政程序
2023年7月13日公布的《 生成式人工智能服务管理暂行办法》,使我国成为首个出台生成式人工智能监管法律的国家。 而人工智能发展至今,已历经手动编码知识(Handcrafted knowledge)的第一次AI浪潮和统计学习的第二次浪潮,悄然站立于第三次浪潮来临的前夜 。在此关键节点,站在人工智能科技前沿的专家却集体呼吁暂停对人工智能的训练,警惕人工智能对人类即将产生的威胁。因为他们认为,人工智能发展的奇点已经来临,人工智能技术的发展将带来许多的不确定性。 可能的风险既包括隐私保护、数据安全、知识产权保护、科技伦理等现实问题,也包括相应法律应对不力产生的风险。而在诸多风险中,行政监管的风险虽常被提及,却无系统论述。已有研究成果往往将行政监管的不足认作风险产生的原因,却没有从行政监管的立场出发,分析生成式人工智能对行政监管的实践与规范带来的挑战。基于此,笔者立足于行政监管的视角,检视生成式人工智能给行政监管带来的挑战,关注现行监管法律的不足,以期通过适当的理论框架提出解决问题的对策。
一、生成式人工智能的行政监管困境
行政监管是指行政机关依据一定的规则对某种公共事务进行监督管理,以使其不危害公共利益。 生成式人工智能的行政监管,也即行政机关对生成式人工智能这一技术进行控制和调节,以使之更好地服务于公共利益 。 在行政监管的视角下,可以从监管对象、监管主体以及后者对前者的监管过程三个要素,分析生成式人工智能行政监管的现状及其存在的问题。
( 一) 监管对象难以确认
传统监管语境中,行政监管的对象一般指行政监管行为的相对人,所以生成式人工智能技术本身并不是监管对象,其开发者、管理者、使用者才是监管的对象。 而与之前的人工智能相比,生成式人工智能更具开放性,该特征直接导致了监管对象的难以确认。
生成式人工智能的开放性体现在运营模式的巨大改变。 传统的人工智能应用,技术( 算法与数据) 、服务、内容 生 成 等 方 面 的 提 供 者 是 能 够 被 轻 易 区 分的。 如人脸识别技术,技术的开发者为应用企业提供人脸识别算法,企业录入用户数据,为用户提供服务。这一过程也基本不涉及内容的生产。而ChatGPT等生成式人工智能模糊了技术支持者、服务提供者和内容生产者之间的差别,允许三者之间身份的切换。以知名链式笔记软件Obsidian为例,其以插件的形式给用户嵌入ChatGPT功能的选择。数据的输入和输出经过API端口实现,内容的生成既可以选择调用Ob⁃sidian自己的算法和数据,也可以不经过Obsidian的算法与数据库。那么,在Obsidian中应用ChatGPT,应当如何定位Obsidian软件的技术支持者、服务提供者(或者是插件的技术支持者、服务提供者)?其生成的内容又应当如何定性?再者,ChatGPT本身即会保存用户的对话数据以改进自身的性能,此时,用户作为ChatGPT使用者的同时,也无意间成为了ChatGPT的“技术支持者”。假设用户输入具有不符合训练数据要求的内容,并利用ChatGPT生产出具有社会危害性的内容,且将之付诸实践,ChatGPT原本的技术支持者及服务提供者是否对此负有责任?由此可见,生成式人工智能的开放性使得监管对象的确认成为一个需要重新思考的问题。
( 二) 监管主体能力不足
ChatGPT等生成式人工智能的强大实力,来源于不同以往的海量数据归集和不断改进的算法能力。据OpenAI透露,ChatGPT-3有1750亿个参数。虽然OpenAI不再公开升级版本ChatGPT-4的数据规模,但根据技术人员的推测,ChatGPT-4有1.76万亿个参数。庞大的数据集不仅可能存在自身质量良莠不齐的问题,还可能在训练阶段就产生国家数据、政府数据、个人数据等方面的安全问题。算法方面,算法黑箱仍然是一个悬而未决的问题。ChatGPT等人工智能的算法,本质上是一种通过奖励模型训练出来的概率选择程序。工程师们将海量数据喂养给算法系统,并对算法系统的回答进行或肯定或否定的赋值。“换句话说,算法会重复穿梭于数据集,逐步修改或平均其预测结果,以优化指定的标准。”因此,算法的输入与输出之间,并非一种基于因果规则的逻辑推导关系,而只是一种基于概率选择的关系。而当算法通过海量数据的喂养,使自己输出的内容越来越准确时,我们也逐渐不能分辨算法究竟是在关注输入与输出内容的哪些精准特征了。而当因果规则与传统统计模型都不能发挥作用时,算法对于外部观察者而言,就变成了一个黑箱。在以大模型为基础的生成式人工智能应用中,解释算法输出与输入之间关系的任务将更加复杂,算法黑箱的问题将更加突出。
生成式人工智能的复杂性暴露出监管主体监管能力不足的问题,其具体表现为两个方面:第一,技术实力不能满足监管需要。ChatGPT等生成式人工智能的技术复杂性是带来诸多监管挑战的核心原因。所以,监管主体应当具有与之相应的技术实力,才能实现技术水平上的势均力敌,识破监管中可能存在的技术风险。不过,监管部门当前并不能实现技术实力的自给,遑论具备与前沿科技公司相当的技术水平。我国当前政府的技术能力建设仍依赖于市场上大大小小的软件公司,而这种做法不仅具有较高的成本和较低的效率,技术水平也难以保证。生成式人工智能的复杂性不过是再度凸显了这一窘境,并加剧了解决这一问题的紧迫性。第二,监管效率有限,不能及时应对监管问题。在人工智能技术的早期阶段,我国对人工智能产业的监管主要采取回应型治理模式,因此对效率的要求尚不突出。而在目前的集中型治理模式下,监管机关要织起一张严密的防控网,积极落实监督和保障制度。这样高强度的监管模式给监管部门带来了更大的压力,也对其监管效率提出了更高的要求。
( 三) 监管过程缺乏参与
生成式人工智能等新技术具有高速迭代的特性,不断冲击与挑战着监管秩序。面对这些新技术,政府需要尽快探索出合适的监管规则,而这需要社会多元主体的参与。然而一方面,我国还未构建起具有包容力的参与机制,使各方力量齐心协力地应对快速变化的技术;另一方面,现有的生成式人工智能监管方式也缺乏参与渠道。当前,对生成式人工智能主要采取算法备案等方式监管,其存在着“缺失陈述申辩、听证、说明理由等核心程序”,“程序运行公开度及备案管理当事人程序参与度都明显不够”的问题,并最终表现为“监管机关自我决定的监管权力封闭运行过程”。
封闭的监管过程不能建立畅通的信息传递渠道,也不能构建起合作型的监管机制。监管权力封闭的运作意味着监管机关与其他主体的沟通程序被省略了,这限制了监管机关获取信息的渠道,让监管机关失去了与被监管对象和更多社会相关主体的交流机会。再者,封闭的权力运作还假定监管机关是“全知全能”的,监管任务只需要监管机关自己履行职责即可完成。然而,现代社会下行政任务的愈加复杂以及其中牵涉利益的多元化,使“公共权力的运用摆脱了传统自上而下单向性过程而具备了自上而下的和自下而上的双向运用轨道”,并“以此确立了行政主体与行政相对人之间一种新颖的关系”。这种关系的持续性与双向性适应了现代行政任务的复杂性,承认了国家以外的力量的补充能够让行政机关更好地完成公共任务。封闭的监管过程让“全知全能”的监管机关垄断了行政权力,阻碍了适应现代行政任务的合作机制的建立。
二、推本溯源:困境成因的行政法律分析
生成式人工智能技术的开放性、复杂性和高速迭代性给现有的监管机制带来了一定的挑战,我国行政机关尚未对此作出有效应对。2023年出台并实施的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)被认为是全球首部AIGC(生成式人工智能)领域的监管法规,但其仍然依循原有的监管惯性,将监管对象设定为“生成式人工智能服务提供者”。诚然,我国的人工智能监管机制一直将“服务提供者”作为监管的核心抓手,并已逐步建立起“技术支持者—服务提供者—内容生产者”的监管链条。而监管对象的内部界限却被实现技术跃迁的生成式人工智能所消解,将人工智能拆解为各部分进行分别监管的思路将难以适用于生成式人工智能的监管。不仅如此,现行法律也未能助力解决监管主体能力不足与监管过程缺乏参与的问题,重新审视生成式人工智能相关的法律规定变得尤为迫切。
( 一) 人工智能监管对象之流变
“智能时代的法律创新还必须紧密结合技术逻辑展开,切忌脱离技术特征谈风险防控。”事实上,我国法律对人工智能监管对象的规定也表现出明显的技术逻辑。具体来说,将人工智能视为多种技术的复合体,并对各种技术分别予以规制,是我国当前治理人工智能的基本思路。
技术逻辑的视角下,人工智能主要由两部分组成:算法和数据。由此,法律也基本从算法和数据两个方面展开对人工智能的监管。《互联网信息服务算法推荐管理规定》(以下简称《算法管理规定》)是我国首部专门治理算法的规范,其确立了算法监管的基本机制——算法备案。《算法管理规定》将保障算法安全、符合法律与伦理、真实准确等责任课以算法服务提供者,以具体的“人”作为监管对象。之后制定并实施的《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》)实际上是对《算法管理规定》作出的补充。因为其监管对象——深度合成技术——本质上也是一种算法。
从立法数量上,法律规范对作为生产要素的“数据”的监管更为严密。从《网络安全法》《数据安全法》等法律层级的规范,到《网络安全审查办法》《数据出境安全评估办法》等部门规章,都围绕数据设置了具体的监管对象,即数据处理者。换言之,数据处理者对数据负有各项义务,而监管者的任务也即监督管理数据处理者履行义务,这一过程的核心仍然是“人”。
当然,法律作为调整社会关系的调节器,处理的本就是人与人的关系。若以关系链的形式表示法律对数据以及算法的监管,将呈现如下链条:法律—服务提供者—算法;法律—数据处理者—数据。但生成式人工智能及作为其基础的大模型改变了现有的链条。大模型将算法与海量的数据深度融合,即将成为新时代的基础设施。一方面,大模型的泛用性极强,能够广泛应用于各类应用与系统,并不需要过于丰富的品类。另一方面,巨大的开发成本使得大模型只能是少数行业巨头的“昂贵的尝试”,而足够的财力和技术实力也能保障大模型的稳定性与前沿性,为社会供给足够的服务。于是,法律监管的关系链更迭为“法律—义务人—大模型(生成式人工智能)”。
其中,义务人是指对大模型负有管理义务的行政相对人。而之所以使用义务人这一模糊的指代,是因为生成式人工智能模糊了监管对象之间的区分,而现有法律尚不能做出恰当的处理。有学者认为,《暂行办法(征求意见稿)》将基础模型的训练数据列为专门的调整对象,意味着我国已经着手对基础模型展开监管。不过,征求意见稿第7条第2款的内容,“用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求”,也被修改为《暂行办法》第7条第1款“生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定”。语法的变化或可表明,我国当前人工智能的监管抓手仍然是具体的服务提供者,其目光并没有移转到生成式人工智能及其大模型。
(二)组合式监管无法赋能生成式人工智能监管
技术实力与监管效率的不足,在一定程度上与现行监管法律的规定密切相关。因为从总体上看,是立法的部门化导致了生成式人工智能的监管部门化,而各个部门的组合式监管共同构成了生成式人工智能的监管网络。部门间的各项资源尚没有形成良好的整合,必然导致该种形式的监管在一定程度上存在监管能力不足的问题。
第一,《暂行办法》等法律规范指向了一个模糊的主管部门。《暂行办法》第16条第2款规定,“国家有关主管部门……制定相应的分类分级监管规则或者指引。”以及第18条规定,“使用者发现生成式人工智能服务不符合法律、行政法规和本办法规定的,有权向有关主管部门投诉、举报。”“有关部门”的模糊表述,虽然为生成式人工智能监管职责的调整预留了空间,但也给法律的执行带来难题。详言之,通过算法备案机制进行监管的责任由《暂行办法》第17条明确为国家网信部门,但第19条又规定,“有关主管部门依据职责对生成式人工智能服务开展监督检查”,可见,监督检查的职责似乎是各部门都具有的。“九龙治水”的格局不仅给监管对象带来不便,也使真正负责的监管主体难以确认。
第二,《暂行办法》等法律规范没有理清组合式监管中各主体的权责。例如,最新的专门立法《暂行办法》第16条第1款规定,“网信、发展改革、教育等部门,依据各自职责依法加强对生成式人工智能服务的管理。”该条款显然是一项宣示性条款,其并没有为各部门设定或明确权责。而《暂行办法》第20条、第21条等条款,虽然表面上增加了新的行政监管事项并规定了具体的罚则,但究其本质,仍然只是对其他法律规范的转述。可见,生成式人工智能的各监管部门仍需要通过理解、解释一般性立法,来执行本部门的监管职责,这将不可避免地造成权责划分上的模糊。
第三,在技术层面,《暂行办法》等法律规范也并未规定监管机关之间的技术支持机制,且将技术的解释权保留给了被监管者。《暂行办法》第19条第1款规定,“提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术数据等支持和协助。”假设教育部门就某个应用于教学的生成式人工智能进行监督检查,由于其自身不具备技术实力,且现行法律规范并未通过人才引入等机制赋予该教育部门技术实力,那么本次检查的技术解释权将全部归属于被监管的部门。监督检查的公正性和有效性由此存疑,而在生成式人工智能的生成内容高度依赖大模型中的数据与算法时,“技术无涉”的内容监管部门是否应放弃技术层面的必要监管也值得进一步讨论。
总之,组合式的监管在法律上存在监管主体及其权责不清、缺失统筹部门与协调机制等问题,并造成监管资源的低效利用。可以说,当前的组合式监管不仅无法赋能监管机关,甚至可能减损了监管机关的监管能力,阻碍了有效有为监管者的实现。
(三)监管过程缺少程序性规范
行政监管贯穿于事前、事中和事后的全过程,能够对生成式人工智能进行全方位的监督管理。而我国法律规范缺少对监管过程的程序性控制,这不仅造成了监管过程的封闭性,更是体现出我国行政监管民主参与水平的不足。
事中事后监管是我国生成式人工智能的监管的主要阶段,而其可以依据的程序性规范存在一定缺失。一方面,现有的程序规定过于简单,算法备案等程序规定不能给相对人以合适的指引。《算法管理规定》第25条规定,“国家和省、自治区、直辖市网信部门收到备案人提交的备案材料后,材料齐全的,应当在三十个工作日内予以备案,发放备案编号并进行公示;材料不齐全的,不予备案,并应当在三十个工作日内通知备案人并说明理由。”该条主要有两个程序性要素,一是备案的期限,二是备案的条件。其中,材料是否齐全是唯一的备案条件,而是否齐全的判断标准理应有一份材料清单,但《算法管理规定》并没有给出。一般而言,行政许可、行政备案等需要行政相对人事先准备材料的行政行为,都应当提前公示所需的材料目录。《行政许可法》第30条第1款规定,“行政机关应当将法律、法规、规章规定的有关行政许可的事项、依据、条件、数量、程序、期限以及需要提交的全部材料的目录和申请书示范文本等在办公场所公示。”另一方面,部分监管行为缺少程序规定,如数据安全评估。目前,仅有《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》对部分算法进行安全评估的范围、内容、程序作出规定,《数据安全法》规定的重要数据的处理者的数据安全评估义务,尚无一般性的规定。这些具体程序性规范的缺失无疑会造成具体监管过程的不透明与恣意。
更为重要的是,现有规范仍然保持着高权行政的风格,不能为被监管主体与其他社会主体提供畅通的民主参与渠道。监管生成式人工智能的相关法律规范以事中事后监管为主,顺应了生成式人工智能的技术发展逻辑,但其并未改变行政机关高高在上、远离技术的监管常态。被监管主体“尽管具备更强的风险预见和防范能力,但是丧失主体性而处于被控制者地位,无法有效利用技术优势和地位优势协助开展监管”。同样,其他社会主体的智慧也无法赋能监管。为解决这一问题,《数据安全法》《暂行办法》等全国性规范以及《深圳经济特区人工智能产业促进条例》等地方性规范做出了一定的尝试。如《暂行办法》第5条第2款规定,“支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新风险防范等方面开展协作。”但该条款避重就轻,仅强调社会自治的协作而未将监管机关纳入协作网络,不能触及问题的核心。此外,目的相仿的其他条款多为宣示性条款,并不具备强制的法律效力。
总的来说,生成式人工智能的行政监管过程尚未实现规范化,多元主体更是无法通过程序性机制参与监管过程。高权行政的惯性使得执法保持了传统的思路,而程序性规范的不完善则是直接造成监管封闭性的原因。
三、纾解之道:生成式人工智能的整体性治理
综上可知,现行法律的不足造成了生成式人工智能的行政监管困境,而其本质原因在于,传统行政法理论还未能适应现代行政监管的转型。传统行政法律理论以行政行为为核心,主要关注的是行政行为的合法性问题。但是,“某种程度意义上,现代政府所面临的核心问题,不是它们做什么,而是如何做;与之相适应的行政法则应置于整个政治体制下来审视,而不仅仅局限于对行政活动在法律框架下应当做什么而不应当做什么的纯粹合法与否的关注。”因此,必须从其他的理论视角出发,将关注从个别行为移转到整体治理目标的实现上来。
(一)以整体性治理理论塑造AI监管制度
对生成式人工智能的有效监管离不开监管体制的改革,而整体性治理理论正是我国行政体制改革的重要指导理论,我国近几次的行政体制改革均体现着整体性治理的思路。2023年3月20日第十四届全国人民代表大会第一次会议通过的《国务院机构改革方案》,以习近平新时代中国特色社会主义思想为指导,“加强科学技术、金融监管、数据管理、乡村振兴、知识产权、老龄工作等重点领域的机构职责优化和调整,转变政府职能”,是在大部制基础上对各部门职能的进一步优化,也遵循着整体性治理的逻辑思维。
整体性治理理论发端于英国,着眼于政府内部机构和部门的整体性运作,其核心主旨是整合政府的内部机构和部门以整合政府的各项功能,从而实现更好的治理。整体性治理的理论内涵较为丰富,它的主要思想包括逆部门化和碎片化、大部式治理、重新政府化、恢复或重新加强中央过程等内容。将整体性治理理论应用于生成式人工智能监管体制的改革并不意味着接受整体性治理理论的全部思想,尤其是该理论发源于英国,具有明显的国家特色。例如,“重新政府化”的整体性治理思路并不适用我国,因为我国传统治理场域过度政府化的问题尚未解决,遑论重新政府化。事实上,整体性治理理论在我国的应用实践也保持了中国特色社会主义制度的特色,是在中国经验的基础上对西方整体性治理理论的创新和超越。
以整体性治理理论形塑生成式人工智能的监管制度具有四点优势。(1)整体性治理理论可以统筹创新与风险监管。对生成式人工智能这一新技术展开监管必然需要考量创新与风险这一对范畴,而理想的监管方案也一定是二者的平衡。达成此平衡需要全局的考量,也即从一种整体的视角观察。(2)整体性治理理论可以扩大传统行政法理论关注对象的范围。生成式人工智能行政监管的问题不是对监管行为是否合法的判断,而是如何在控制风险的前提下促进生成式人工智能发展的问题。传统理论重点关注具有外部效力的行政行为,并以行为锚定监管主体与监管对象,而这样的思路把监管全程过分简单地化约为了最后表示在外的行为。整体性治理理论则能重新建立对监管全过程的重视,并将更好的监管作为监管主体的目标。(3)整体性治理理论可以精准应对监管主体能力不足的问题。“整合”一直是整体性治理理论的关键词,其强调的是通过合并政府组织和部门功能,以形成一个更能有效解决问题的政府。(4)整体性治理理论能够优化治理的过程。整体性治理强调的自上而下的建构,当然也包括程序机制的统一,并且其强调的程序机制并不排斥非政府主体的参与,具有包容性。
由上可见,将整体性治理理论运用于生成式人工智能的监管,既具有诸多方面的理论优势,也符合我国行政体制改革的一贯思路。而整体性治理在生成式人工智能行政监管中的具体展开,可以从以下三个方面入手。
(二)产品监管:AI监管对象的整体化思路
数据处理者和服务提供者是原本监管体制的核心,而生成式人工智能的出现增加了识别二者责任的难度。在生成式人工智能的应用系统中,似乎只有生成式人工智能技术是明确的中心,其技术支持者、服务提供者、直接亦或间接的使用者,也只是相对确定但可以不断变化的。但如果再考虑到生成式人工智能昂贵的开发成本、庞大的数据集和在此基础上不断演化的算法,每个生成式人工智能技术项目都可以说是独一无二的。虽然在理论上,某个生成式人工智能可以被复制为无数份,不过,人工智能的主要开发者必然会对其进行保密,以保持其模型的竞争优势和独一无二性。所以,生成式人工智能可以被暂时认作一份独一无二的“产品”。
在相对确定的产品与相对不确定的产品开发者、使用者之间,产品应当走入监管视野的中心。而在整体治理的思路下,将产品作为线索,将产品背后的人统一纳入监管,是解决监管对象确认问题的可行方法。产品监管具体可以通过三个具体措施实现。
第一,完善备案信息,为产品监管提供抓手。目前的算法备案机制为监管机构提供了信息,缓解了监管主体的信息匮乏,有利于监管机构科学地开展监管活动,提升监管效能。生成式人工智能备案应当进一步升级,实现算法、数据、场景、主体等更多维度信息的备案,最终构建起大模型备案机制。详言之,不仅算法要进行备案,大模型的数据集、应用场景以及授权使用大模型的其他开发主体等内容,也应当进行备案。同时,这种备案并非一次性的,而是尽可能保持持续的更新,实现与监管机关的实时共享。
第二,明确管理义务,提升产品的安全性。首先,凡是运行和维护生成式人工智能产品的主体,即具有对其的管理义务。生成式人工智能模型的初级开发者,当然具有管理义务,除非其将该人工智能模型转让给他者。生成式人工智能模型的次级开发者,也对其具有部分的管理义务。所谓次级开发者,指的是将生成式人工智能产品嵌入自己开发的应用中,二次开发利用生成个性化产品的开发者,也即上文提及的“授权使用大模型的其他开发主体”。次级开发者对个性化的部分负有管理义务,如次级开发者输入的用以个性化的数据。其次,管理义务根据不同的层次内容不同。初级开发者要注重生成式人工智能产品的合伦理性,避免其在根本上存在的潜在的违法倾向;次级开发者则要注重个性化数据的应用场景,可以引入数据的分级分类制度来保障数据的安全。
第三,赋予使用者监督权,确保产品的灵敏性。应先明确的是,使用者故意不当使用生成式人工智能产品所产生的不良后果,不应由开发者承担责任,但开发者应当对用户输入的数据进行筛选,避免其影响产品本身。而使用者在使用过程中,发现产品可能出现的歧视、误导、虚假信息,应享有监督权。生成式人工智能是一个通过不断交互进行升级的产品,因而不应忽视用户本身对于产品的贡献,应当重视使用者的感受和问题反映。并且基于生成式人工智能的技术能力,个人用户的举报投诉应至少得到格式化的反馈,而对于频繁出现的问题则应当进行更正式的说明,甚至在必要时制定并公开“偏见影响声明”等可能影响使用者权益的文件。
由此,行政监管能够以大模型备案机制为基础,锁定背后不同层级开发者的责任义务。而众多使用者对产品进行的监督,则是整体化的产品监管的重要力量。
(三)资源整合:主要监管机关的确认
对监管主体和职能的整合是整体性治理所重点关注的,也是当前生成式人工智能行政监管所需要的。而哪一机关应当作为生成式人工智能监管的主要机关,亦或是否需要新设一个专门机关监管人工智能的问题,则是有待明确的。是否需要设立一个专门的人工智能监管机关?对此,欧盟的答案是肯定的。已由欧盟理事会批准公布的《人工智能法案》计划设置独立的“欧洲人工智能办公室”(TheEuropeanArti⁃ficialIntelligenceOffice),其主要职责即监管欧盟范围内的人工智能模型。欧洲人工智能办公室的设立,很大程度上是为了实现欧盟这一国家联盟内人工智能监管的统一性,而我国的国家互联网信息办公室(以下简称网信办)已然可以担当此角色。在现有的规范和实践中,网信部门作为《算法管理规定》《暂行办法》规定的重要监管主体,也应当被进一步确认为我国人工智能监管的主要机关。
首先,将网信部门规定为统筹人工智能监管的机关。建议在之后的《生成式人工智能管理办法》中增加如下条款:“各级网信部门是人工智能产品的主管部门,负责统筹、协调、实施本行政区域内人工智能产品监管工作。”如此才能消除主管部门的模糊性,明确网信部门作为主要监管机关的地位。需要注意的是,网信部门是生成式人工智能的主管部门而不是唯一部门,其他部门行使的生成式人工智能监管权力可以由网信部门进行统筹协调。具体来说,因为生成式人工智能的根本在于算法与数据,所以网信部门主要行使生成式人工智能算法与数据的安全监管权力,而监管事项涉及其他部门的主要职能时,则由其他部门进行监管,由网信部门进行统筹。例如,《科技伦理审查办法(试行)》规定,人工智能的研究活动需要经过科技伦理审查,该监管事项就由科技部主要负责,而这样的分工也符合“功能适当性”的考量。
其次,集中生成式人工智能的监管权力。作为主要的人工智能监管行政机关,网信部门需要配置以更广泛的权力。虽然主要职能的不同使得网信部门与工业和信息化部门、科技主管部门、市场监管部门等仍有一定的分工,但这并不妨碍将监管权力进一步集中到网信部门。第一,落实网信部门的事中事后监管权。仅凭算法备案机制以及其升级版本的大模型备案机制,网信部门尚不能实现对生成式人工智能监管的实效,其还需要“与其他事中事后监管机制的联动与强化后续监管执法工具的威慑力来实现对相对人的过程控制”。故而,网信部门应当可以通过“双随机、一公开”对备案内容进行检查执法。第二,保持网信部门的政策制定主导权。在《算法管理规定》《暂行办法》等生成式人工智能治理的政策规范中,网信部门往往是联合印发的各部门中的牵头人,而今后关于生成式人工智能治理的其他政策规范,也应当由网信部门主导。因为网信部门不仅具有丰富的立法经验,更是方便直接将执法经验向立法转化,是详尽规则制定的最适合机关。其他相关部门应当配合好网信部门,并向其反馈不同部门视角下的观点,以避免部门利益立法的倾向。第三,尊重网信部门的统筹权。网信部门应当用好统筹权,协调各部门展开生成式人工智能的整体性治理,特别是统筹调动政府技术部门,发挥好技术部门的技术支持作用。统筹权可以通过我国整体性治理理论所强调的党政融合加以实现,而各部门也应当尊重网信部门的统筹指令。
最后,还应当考虑适时提高网信部门的行政级别。在国家层面,网信办仍然只是国务院的办事机构,不具有独立的行政管理职能。而在人工智能、算法、数据等基础之上的网络社会中,网信办的执法权力与责任只会越来越大。那么,当前的行政级别势必不能匹配网信办未来的地位和作用。再者,人工智能监管具有一定的国际化趋势,网信办也需要合适的身份与国外监管机关进行交流合作。
(四)过程优化:监管程序的整体性构建
整体性治理不仅强调行政机关组织内部的治理资源整合,还重视将社会力量纳入治理网络,而这正是破除传统高权行政惯性的指南。“政府掌控大量资源和专业知识,但是并不足以满足公众的所有需求,将社会不同部门的资源和专业知识整合到一起,共同面对公共议题,才是解决公共问题的最佳办法。”因此,行政机关需要从高权行政转变为契约行政,从单向、封闭的监管体系升级为互动、合作的监管体系。从程序机制构建生成式人工智能整体性治理的合作机制,是现有条件下最具可行性的方案。
首先,增设生成式人工智能行政监管的定期咨询程序。欧盟计划建立“咨询论坛”(Advisoryforum)为人工智能治理提供技术经验和建议,且规定咨询论坛每年至少举行两次会议。我国网信部门也可以定期组织咨询会,与生成式人工智能利益相关的企业、社会组织、学术代表、人民代表进行交流沟通。与会代表应通过遴选的方式产生,使之从整体上兼顾各方利益,尤其是中小规模的人工智能技术开发者,而为了咨询程序的按时有序,代表也可以实行任期制。其次,完善程序规则的细节。在现有规范的基础上,还需完善以下方面。(1)制定、公开大模型备案所需的材料清单。(2)规定材料不齐全、不符合规定情形下的补正程序。(3)继续完善较为专业和独立的材料的准备程序,如安全评估报告。我国已制定《工业和信息化领域数据安全管理办法(试行)》《工业和信息化领域数据安全风险评估实施细则(试行)》,对工业和信息化领域的数据安全评估报告进行了细致规定,但数据评估报告是所有人工智能项目均需要的必备材料,更应构建起一个整体统一的程序机制。(4)制定网信部门“双随机、一公开”监管机制的程序规定,包括双随机抽查工作细则、抽查事项清单,以及由各级网信部门制定的“检查对象清单”“执法检查人员清单”等。最后,在监管过程中为当事人提供救济渠道。虽然监管过程中的大部分行政行为均属于事实行为,不设定、改变、减损或增加当事人的权利义务,但这并不意味着当事人完全不享有获得救济的权利。行政监管中的所有事实行为均有行政强制力作为后盾,若当事人未完成行政事实行为的要求,其权利义务当然会受到影响。大模型备案从性质上也属于行政事实行为,但若备案不予通过,当事人开发、使用人工智能的权益当然会受到影响,因而应当予以当事人陈述申辩、寻求救济的渠道。例如,当事人在不认可不予备案的理由时,应当有权请求备案机关重新审查。
结语
法律发展的历史即社会生活的变迁史,而人工智能技术已经融入我们的社会生活之中。生成式人工智能等技术的发展速度也一直存在“加速度”,这使得科技促成的社会变化越来越剧烈。问题是,变化有益于社会生活中的普通人吗,又如何平衡技术发展的速度与安全性?法律与政策绝不能把科技发展的高速路变为土路、泥路,但也必须设置一些减速带,保障科技进步的安全性。行政监管正是生成式人工智能发展道路上最有效的减速带,不过其自身仍存在优化的空间。整体性治理理论恰是合适的指导理论,其提供了生成式人工智能监管的全局规划,促使行政监管的过程民主化、规范化,加强了行政监管主体的监管能力,并锁定了生成式人工智能模型为监管对象。在社会发展的整体视角下,妥当的行政监管制度不仅能够防止科技风险的发生,还能在客观上保障科技发展立足于公共利益,并最终促进科技发展行稳致远。
文章来自《陕西行政学院学报》 2024年第3期。本文章仅限学习交流使用,版权归原作者所有。
—— EDN ——
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.
下载网易新闻客户端