零字节资讯网2025年12月23日消息:

建立信任 人工智能 框架、应用程序和就绪性自我评估

0

分享至

用微信扫码二维码

分享至好友和朋友圈

建立信任 人工智能 框架、应用程序和就绪性自我评估

Building Trustworthy Artificial Intelligence Frameworks, Applications, and Self-Assessment for Readiness

https://documents1.worldbank.org/curated/en/099805309022518222/pdf/IDU-1e9a05ec-ab52-425d-a18a-c9c91ed04a37.pdf

  1. 引言

人工智能(AI)在公共治理中的变革潜力日益受到发达经济体与发展中国家的共同重视。各国政府正积极探索并采纳AI技术,以提升公共服务供给质量、优化行政效率,并强化数据驱动的决策能力。然而,将AI融入公共系统也带来了伦理、技术与制度层面的多重挑战——从算法偏见、透明度缺失,到数据隐私风险与监管碎片化等问题。在公共部门语境下,此类挑战尤为突出,因该领域对信任、问责与公平具有根本性要求。

本文旨在回应一个核心问题:公共机构应如何以负责任的方式采纳AI,同时保障隐私、促进公平并确保问责? 具体而言,本文聚焦于政府机构在可信且负责任地实施AI技术方面的准备程度

本文的主要读者群体包括参与公共部门AI设计、监督与实施的相关利益方,涵盖:公共部门领导者、技术政策制定者、数字治理专业人员,以及致力于制度能力建设与数字化转型的发展合作伙伴。尽管全球范围内关于可信AI的框架持续演进,且伦理原则已得到广泛讨论,许多政府团队在将这些高层理念转化为实际操作决策时仍面临困难——尤其是在资源受限或制度碎片化的环境中。

为弥合这一鸿沟,本文兼顾理论奠基实践工具支持
第一,系统梳理支撑可信AI治理的关键伦理考量与国际框架;
第二,介绍可缓解AI部署中新兴风险的相关技术方案,包括可解释性模型、隐私增强技术(PETs)及算法公平性方法;
第三,提出一套面向公共机构的自评估工具包:涵盖AI应用决策流程图与数据隐私准备度检查清单。这些工具旨在帮助公共部门行动者评估自身准备状况、识别制度短板,并在AI采纳前优化内部协调流程。

通过连接理论与实践,本文为全球构建合法、合乎伦理、包容且植根于制度现实的可信AI的持续努力作出贡献。

  1. 人工智能在公共治理中的应用

人工智能(AI)在提升公共治理方面展现出巨大潜力,包括优化政策制定流程、提供更加个性化的服务以及推动创新。然而,政府对AI的采纳也引发了围绕隐私、公平性与问责制等关键伦理问题的重要关切。本节将探讨AI如何在公共部门中加以应用,概述核心伦理考量,并介绍构建可信AI系统所需的基础概念。

2.1 AI在公共服务领域推动创新与效率的潜力

AI致力于开发能够执行通常需人类智能才能完成的任务(如学习、问题求解与决策)的计算机系统。在AI语境下讨论“最优政策制定”,指的是利用AI的上述能力,通过高效、准确地分析海量数据,显著优化政策流程。其具体体现为以下方面:

  1. 提升流程效率:AI可实现任务自动化,快速分析数据,并识别人类可能忽略的模式,从而加快决策速度并提升决策质量;
  2. 改善服务供给:AI可实现服务个性化、预测未来需求,并提升服务的可及性与质量。

通过强化这些核心能力,AI可在多个领域推动高效且有效的流程变革。AI技术的应用场景极为广泛,涵盖数据分析、模式识别及基于AI的仿真等实践。本节将通过具体案例考察其应用,并呈现AI技术实际落地的实施蓝图,同时探讨其潜在的法律影响与挑战。

2.1.1 政策制定流程的效率提升

AI可通过分析海量数据彻底革新政策制定流程(Deloitte, 2017),使政府更高效地寻求复杂社会问题的解决方案,并优化资源配置(Margetts & Dorobantu, 2019)。相较于传统以人力为中心的分析方法,AI处理数据的速度更快、精度更高,使政策制定者能迅速把握快速变化的社会经济指标,并及时作出响应。此外,AI还可通过开展复杂的情景模拟与风险评估,降低决策风险——例如,利用机器学习模型预测不同政策干预方案的长期社会影响,从而支持更稳健的政策选择。

通过开展复杂的情景模拟与预测建模,AI可提前分析不同政策选项的潜在结果。例如,利用自然语言处理(NLP)技术分析公众舆论或媒体报道,有助于把握社会情绪,并将其纳入政策制定过程。
尽管AI可在一定程度上缓解某些人类偏见(如判断不一致等问题),但它也带来了新的风险,例如算法偏见与数据伦理使用问题,这些风险必须予以审慎管理。

2.1.2 更优质的公共服务

AI可通过提供定制化公共服务,实时把握并预测公民需求(Mehr, 2017)。相关实例包括:基于聊天机器人(chatbot)的市民投诉响应系统,或通过预测性分析优化交通流控——此类应用有助于提升公民生活质量(OECD, 2019a)。AI在提升公共服务的个性化可及性方面发挥关键作用:借助机器学习(ML)算法分析个体公民的服务使用模式,可实现一系列个性化信息推送与服务供给。运用语音识别与自然语言处理(NLP)技术的虚拟助手服务,可提升残障人士、老年人等数字弱势群体的服务可及性。在交通领域,实时交通数据结合AI分析可预测拥堵状况并推荐替代路线,从而提升出行效率;在医疗健康领域,基于AI的疾病预测与预防服务切实可行,有助于增强公共卫生政策的实效性。此类AI服务的拓展可提升公众满意度,并强化对政府的信任。然而,个人数据保护与安全相关问题仍需审慎审视。

2.2 人工智能与政府治理中的伦理考量

随着AI日益深度嵌入公共部门运作,政府面临愈加紧迫的使命:应对AI应用所伴生的伦理与治理挑战。尽管AI具有变革性潜力——可提升服务供给质量、政策响应能力与运营效率,同时也带来了复杂的新型风险(Floridi & Taddeo, 2016),包括数据隐私泄露、算法偏见、透明度缺失及问责机制缺位等。AI系统的误用或失灵可能导致严重的社会、经济与法律后果,因此政府亟需建立相应的法规与政策,以管控并防范此类风险(Jobin, Ienca, & Vayena, 2019)。一套完备的AI治理框架应致力于推动AI的安全与合乎伦理的使用,同时在技术创新与社会价值之间保持平衡(G20, 2019)。通过确立清晰的规则与标准,政府可切实保障公民权利与利益,并培育一个可信赖的AI生态系统(Fjeld et al., 2020)。

2.3 核心概念与术语

在AI领域,对核心概念与术语达成共识,是确保其负责任开发、应用与治理的前提。下述定义全面涵盖了与可信AI密切相关的关键概念,强调在公共与私营部门各利益相关方之间,亟需协同推进公平性、透明性、问责性、隐私保护以及跨部门协作

2.3.1 可信人工智能治理的核心概念

  1. 可信人工智能(Trustworthy AI):指满足公平性、透明性、安全性与问责性等核心要求的AI系统,以确保其符合伦理与法律标准,从而赢得公众信任(Coeckelbergh, 2020;Fjeld et al., 2020;G20, 2019)。它还包括具备强健性(robustness)的系统设计,能够抵御模型投毒(model poisoning)、提示注入(prompt injection)等网络安全威胁。
  2. 人工智能治理(AI governance):指对AI的研发与应用进行监督、规范与协调的整体性制度或流程。其涵盖政策、伦理与技术标准(G20, 2019;Geyer, Klein & Nabi, 2017),是确保AI创新与社会目标及价值观保持一致的关键机制。
  3. 责任共担(Distributed responsibility):指AI系统所产生的结果责任由多方利益相关者共同承担,而非仅归于单一实体(日本政府,2016),旨在应对复杂AI系统中问责主体难以界定的挑战。该理念对于实现公共部门AI部署的透明性与公平性至关重要。
  4. 伦理标准(Ethical standards):指在AI开发与部署全过程中维护人权、公平性与安全性等价值的指导原则(Coeckelbergh, 2020;G20, 2019;世界经济论坛,2020),其有效落实依赖于政府官员、开发者与公众的共同理解与遵守。
  5. 问责制(Accountability):指当AI相关错误或损害发生时,明确界定责任归属。在涉及开发者、运营者与用户等多方参与的复杂AI生命周期中,问责制尤为关键(Floridi & Taddeo, 2016;日本AI战略委员会,2017)。它与多方AI系统中的“责任共担”理念紧密关联(日本政府,2016)。
  6. 可解释性(Explainability):指AI系统能够为其决策或预测提供人类可理解的理由,旨在解决深度学习等技术中存在的“黑箱”问题。可解释人工智能(XAI)使政策决策过程透明化,令利益相关者得以审查AI的推理逻辑(Gunning, 2017;Jobin, Ienca & Vayena, 2019;白宫,2019)。
  7. 偏见(Bias):指由数据或算法设计导致的系统性偏差,可能引发不公或歧视性结果,其形式多样(如数据偏见、算法偏见),并可能加剧社会不平等(欧洲数据保护委员会,2018;O’Neil, 2016)。在公共政策领域,最大限度减少偏见对于确保服务与决策的公平性至关重要。
  8. 自主性(Autonomy):适用于人类与AI两方面;对人类而言,指在决策中具备道德推理与自由意志的能力;对AI而言,则指基于数据与算法独立执行任务的能力(英国信息专员办公室,2020;Sweeney, 2013)。在公共治理中,平衡AI的自主运行与人类监督十分关键。

方框1. 人类与人工智能的自主性对比

维护人类自主性

从哲学角度而言,自主性对人类与人工智能的应用存在本质差异。人类自主性包含真正的自由意志与道德推理能力,这构成了道德能动性与责任的基础(Montag, Nakov, and Ali, 2024)。相比之下,人工智能缺乏意识与道德意图,因此无法拥有真正的道德自主性,也不能被视为独立的道德主体。相反,AI系统应被明确设计为增强而非取代人类判断与决策能力。近期研究强调系统设计的重要性——无论是增强还是削弱人类自主性,AI交互模式与文化语境都会显著影响用户在使用AI系统时是感到掌控还是被迫服从(Montag, Nakov, and Ali, 2024)。例如,向用户提供真实替代选项——如允许其选择与人类代表互动,而非仅限于与AI交互——可显著提升信任度、接受度及感知到的自主性。尊重本地规范、具备交互性与可解释性的AI可进一步强化用户自主性;而隐晦或专制型AI则会削弱之。因此,保护人类自主性不仅是一种道德义务,也是一种确保可信AI的务实策略。“人在回路”(human-in-the-loop)方法——允许用户理解、质疑或覆盖AI输出——确保了道德责任仍牢牢掌握在人类手中,使AI系统设计与康德式自主原则及当代“责任共担”理念相契合(Montag, Nakov, and Ali, 2024)。

定义人工智能自主性与问责制

相较之下,人工智能自主性严格指根据预设算法与数据输入,在无道德判断或意识体验的前提下独立执行任务的能力(Bryson, 2020; Floridi, 2014)。信息哲学将此称为“功能性自主性”,强调AI信息处理系统的复杂性与适应性(Bostrom, 2014)。AI可对环境输入做出反应并自适应调整,但这些响应并不内化人类的道德判断或意图(Dreyfus, 1992)。因此,人工智能自主性本质上是技术性的,而非道德性的。

随着AI系统操作自主性的扩展,问责制成为关键议题:传统责任框架将道德责任完全赋予具备意图与道德判断能力的人类行动者(Matthias, 2004)。然而,AI系统通常涉及众多利益相关者——如数据科学家、工程师、企业与用户——这使问责变得复杂。为应对AI系统结果责任归属的复杂性,新型责任模型如“分布式责任”或“共享责任”应运而生(Righetti, Madhavan, and Chatila, 2019)。“分布式责任”意味着责任由开发者、用户、运营者及所有参与系统设计与实施的利益相关者,根据其角色与影响力程度共同承担(欧洲议会,2017)。该方法承认AI开发与运行固有的协作性,确保在应对伦理关切、安全风险与意外后果时保持清晰性与公平性。

2.3.2 隐私保护技术

  1. 差分隐私(Differential privacy):指通过对数据添加统计噪声,防止识别个体数据记录,从而在保障个人信息安全的前提下,支持数据分析或模型训练的技术(Floridi & Cowls, 2019)。它对于平衡隐私保护与AI实用性至关重要。
  2. 联邦学习(Federated learning):指一种去中心化的机器学习方法,原始数据保留在本地设备或机构内,仅共享模型参数。该技术可降低隐私泄露风险,支持多方协作式AI开发(欧盟委员会, 2020;UNESCO & COMEST, 2019),现已被广泛应用于医疗、金融等敏感数据处理领域。
  3. 同态加密(Homomorphic encryption):指一种允许在加密数据上直接进行计算(如加法、乘法)而无需先解密的加密方案,可在确保数据机密性的同时,实现安全的AI模型训练与推理(欧盟委员会, 2020;Floridi & Cowls, 2019)。该技术在公共行政与医疗数据处理等敏感场景中具有重要应用价值。
  4. 数据最小化原则(Data minimization principle):指仅收集与使用AI运行所必需的数据,避免不必要地采集个人数据(Doshi-Velez & Kim, 2017)。该原则在公共部门为政策目的使用数据时尤为关键,有助于在保障功能性的同时维护隐私权。
  1. 由大数据驱动的决策制定

数据分析、模式识别与模拟技术能够增强决策过程。这些技术使政策制定者能够从大规模、复杂的数据集中提取洞见,预测未来结果,并优化政策干预措施,从而提升其决策的有效性、效率与前瞻性。

3.1 数据分析与模式识别:一种整合方法

在人工智能领域,数据分析与模式识别深度交织,常协同工作,以从数据中提取有价值的洞见并支持智能决策。这两个领域对于AI系统如何处理和理解海量信息至关重要。

数据分析是指将原始数据集系统性地转化为有用知识的计算过程。在人工智能背景下,数据分析指利用AI技术分析大规模、复杂的数据集,简化流程、识别趋势并挖掘可操作的洞见(Eggers, Schatsky, & Viechnicki, 2017)。它涵盖从收集、清洗、转换到应用模型于原始数据的整个生命周期,最终提取出与决策相关的有效信息(Eggers, Schatsky, & Viechnicki, 2017)。这包括处理结构化、半结构化和非结构化数据的能力(Margetts & Dorobantu, 2019)。根据目标与方法,数据分析可大致分为以下几类(Deloitte, 2017):

  • 描述性分析(Descriptive analytics):回答“发生了什么?”——聚焦于总结历史数据以理解基本特征。AI通过快速处理大量结构化与非结构化数据,识别模式、趋势与相关性,强化了这一能力。例如,零售商可部署AI算法分析客户数据,揭示购买趋势与偏好。
  • 诊断性分析(Diagnostic analytics):探究“为什么会发生?”——识别复杂数据集中的根本原因与关联。AI加速了这一过程,例如,在医疗保健领域,通过分析患者数据、病史与实验室结果,AI能比传统方法更准确、更迅速地定位疾病的根本成因。
  • 预测性分析(Predictive analytics):预测“接下来可能发生什么?”——利用历史数据、统计建模及AI/机器学习(ML)来预测未来趋势与结果。示例包括预测金融市场走势或预估制造设备的维护需求。
  • 指导性分析(Prescriptive analytics):确定“我们下一步该做什么?”——基于前期阶段的洞见,提供可执行的建议以优化未来行动。AI通过分析情景发挥贡献,例如在供应链管理中,AI分析库存水平、需求预测与运输条件,以推荐最优订单数量与交付时间表。

模式识别是人工智能与机器学习的一个基础分支,关注机器识别、分析与分类数据中模式(如规律、趋势、结构等)的能力(Russell & Norvig, 2016)。这涉及使用算法检测各类数据类型(包括图像、音频、文本和数值数据)中的模式(Russell & Norvig, 2016)。其目标是从数据中提取有用信息,理解、分类并解释数据,从而支持诸如物体识别、异常检测与预测等任务(Russell & Norvig, 2016)。

模式识别采用多种方法,包括统计方法、机器学习(如监督学习与无监督学习),以及深度学习(如用于图像模式的卷积神经网络[ CNNs ]、用于文本序列的Transformer模型)(Russell & Norvig, 2016)。这些技术是数据科学家在各领域理解和分类数据的核心工具(Russell & Norvig, 2016)。

3.1.1 共生关系:模式识别如何驱动数据分析

数据分析与模式识别紧密关联,其中模式识别是现代数据分析的关键引擎。它不仅是一个相关领域,更是一种基础能力,为高级数据分析提供支撑并使之成为可能(Russell & Norvig, 2016)。数据科学家运用人工智能驱动的模式识别技术来理解、分类与解释数据——这正是数据分析生命周期中的核心活动(Russell & Norvig, 2016)。

基于人工智能的模式识别技术(如机器学习、深度学习)使数据科学家能够高效分析海量、复杂的数据集,识别出传统方法难以甚至无法察觉的细微模式、相关性与趋势(OECD, 2019a),从而实现更深层次的理解与更精准的数据驱动决策(OECD, 2019a)。

在历史与当前数据中识别模式的能力,对于构建预测模型(预测未来事件)与指导性模型(推荐行动方案)至关重要——这两类模型正是高级数据分析的核心产出(Deloitte, 2017)。例如,预测设备维护需求或预判消费者需求变化,均依赖于对相关数据模式的有效识别(Russell & Norvig, 2016)。

许多现代模式识别技术,尤其是基于深度学习的方法(如用于图像识别的卷积神经网络[CNNs]、用于文本序列建模的循环神经网络[RNNs]/Transformer模型),专门被设计用于从非结构化数据中提取模式,显著拓展了数据分析的适用范围(Eggers, Schatsky, & Viechnicki, 2017)。数据分析为模式识别提供基础语境(即经过清洗与处理的数据)并解释其发现;而模式识别所生成的洞见又反哺分析过程,优化模型,从而提升预测与解决方案的可靠性。

这种关系并非静态,而是一种不断演化的共生关系。随着数据在体量(volume)、速度(velocity)与多样性(variety)——尤其是非结构化数据——方面的持续增长,数据分析日益依赖于复杂的、基于人工智能的模式识别技术(如深度学习)。模式识别正从一种数据分析的辅助工具,转变为驱动现代大规模数据分析的核心引擎。数据复杂性的提升,也要求模式识别技术日趋精密,表明其作用已远超“组成部分”,而成为赋能性关键能力。正如Russell与Norvig(2016)所指出,人工智能“快速高效地分析海量数据”并识别“用其他技术难以或无法检测的模式”的能力,正标志着这一转变。

因此,模式识别领域的进步直接推动了数据分析在广度与深度上的拓展,尤其在复杂应用领域中表现突出。

然而,随着数据分析与模式识别日益依赖复杂的“黑箱”AI模型(如深度学习),二者共同面临一项关键挑战:可解释性与可理解性的需求。若底层推理过程不透明,则数据分析所得洞见与模式识别所获规律的价值将大打折扣,削弱信任并阻碍可操作的决策制定。复杂AI模型的内部决策逻辑通常缺乏内在透明性(Adadi & Berrada, 2018)。“这些系统的有效性受限于机器当前无法向人类用户解释其决策与行动的能力”(Gunning, 2017)。这种理解缺失引发了人们对“可靠性、公平性、偏见及其他伦理问题”的担忧(Adadi & Berrada, 2018)。为使数据分析真正实现“知情决策”(Eggers, Schatsky, & Viechnicki, 2017),并使模式识别产出“有用信息”(G20, 2019),其输出背后的推理逻辑必须可被理解。因此,在借助复杂AI推动数据分析与模式识别能力提升的同时,必须同步推进可解释人工智能(XAI)的发展,以维系公众信任、保障公平性,并支持有效的人类监督与干预。这一诉求已成为推动两大领域协同演进的共同主线。

表1对比了人工智能中数据分析与模式识别的关键特征。

3.1.2 关键技术与应用

数据分析技术因人工智能(AI)与模式识别而得到显著增强。AI 极大地提升了传统数据分析能力,例如自动化数据填补、合成数据生成以及洞察结果的解释(White House, 2019)。生成式 AI 通过对话式界面革新了数据发现过程(Mehr, 2017)。模式识别则深化了特定类型的数据分析:

  • 图像与视频分析:卷积神经网络(CNNs)促进了医学影像分析与安防应用(Eggers, Schatsky, & Viechnicki, 2017)。
  • 自然语言处理(NLP):Transformer 架构支持文本分类与情感分析(Fjeld et al., 2020)。
  • 语音识别:实现声纹识别与虚拟助手功能(Mehr, 2017)。
  • 异常检测:识别异常模式,用于欺诈防范与疾病暴发预测(Deloitte, 2017)。
  • 时间序列分析:预测金融市场走势与消费者行为趋势(Gunning, 2017)。

数据分析与模式识别持续协同发展,随着人工智能的进步,其影响范围预计将进一步扩大。二者协同推动各领域的创新,以下列举若干应用实例:

  • 医疗健康:疾病模式识别有助于指导治疗方案制定与实现疾病的早期检测(Deloitte, 2017;Floridi & Cowls, 2019)。
  • 金融领域:交易异常检测与市场趋势预测(Deloitte, 2017;G20, 2019)。
  • 零售行业:需求预测、库存优化及个性化推荐(Deloitte, 2017;Doshi-Velez & Kim, 2017)。
  • 制造业:基于物联网(IoT)传感器数据模式的预测性维护(Deloitte, 2017)。
  • 公共政策制定:借助自然语言处理(NLP)与模式识别技术进行市场预测,并优化政策设计(Information Commissioner’s Office, 2020;Wirtz, Weyerer, & Geyer, 2019)。

3.2. 基于人工智能的模拟
人工智能驱动的模拟与建模被广泛应用,因其能够提前预测与评估政策实施效果(OECD,无日期)。它们在提升政策有效性、降低负面效应方面发挥着关键作用。在当代,基于人工智能的模拟与模型对于估计复杂系统的未来状态尤为有用。
例如,模拟可预测交通政策调整后交通流的变化,或评估环境法规对产业的影响。模拟还支持多种情景的测试,以甄选最优政策方案。强化学习(Reinforcement Learning, RL)算法可用于制定针对政策实施后可能出现的各类情境的应对策略。RL 应用所产生的结果有助于降低政策失败风险、减少负面影响——这些正是相关计算所追求的目标。
同时需谨记:模型的准确性高度依赖于输入数据与基础假设,因此必须持续进行验证与更新。

  1. 人工智能应用中的伦理挑战与风险

尽管人工智能为政府治理带来的潜在收益巨大,但同等重要的是必须正视其应用所伴随的伦理风险与治理挑战。随着人工智能系统越来越多地影响关乎公共福祉的决策,人们对其可解释性、客观性幻觉以及个人数据保护等问题日益关切。本节探讨人工智能应用中的这些挑战与风险,呼吁采取全面措施,以实现可信赖的人工智能应用。

4.1 可解释性

深度学习等复杂人工智能模型往往具有“黑箱”特性,导致其结果难以解释(Lipton, 2018)。这可能阻碍政策决策过程中的透明性与问责性保障。若政策制定所依赖的人工智能依据无法被理解,公众对决策结果的信任可能减弱,进而损害政府与公众之间的沟通与信任构建。此外,当预测或决策出现错误时,亦难以厘清责任归属。

为应对上述问题,亟需开发并采纳可解释人工智能(Explainable AI, XAI)技术。XAI 旨在以人类可理解的方式呈现人工智能系统的运行原理与决策过程,从而使政策制定者能够审查其判断依据,并视需进行调整。然而,目前 XAI 技术仍处于早期发展阶段,亟需同步推进技术研发与制度支持。XAI 的更多细节将在下一节展开讨论。

4.2 人工智能中的“客观性幻觉”

人工智能常被视为支持数据驱动决策、减少特定类型人为错误的工具。通过系统性地处理大规模、多样化的数据集,AI 有潜力缓解人类认知局限(例如过度依赖近期信息或情绪显著性信息)所带来的偏差。

然而,人工智能的应用并不能确保客观性。AI 系统可能以多种方式表现出偏见,这些偏见往往与数据采集的方法与环境,以及模型开发过程中的各类选择密切相关。一个新兴的关切是所谓“AI 废料”(AI slop)的泛滥——即由 AI 生成的低质量、误导性或无关内容,可能扭曲信息环境并削弱公众信任。

为应对这些风险,需在整个 AI 模型开发与应用流程中(从数据选择、算法设计到系统部署)保持审慎关注。专栏 2 概述了可能影响 AI 应用客观性与可靠性的常见偏见类型。

专栏 2. 偏见类型

A. 基于计算的偏见

  1. 数据偏见
  • 因人工智能模型所学习的数据本身固有的偏见而产生的错误
  • 由于特定群体或特征被过度代表或代表性不足,导致预测结果失真
  1. 算法偏见
  • 在算法设计或选择过程中引入偏见而导致的错误
  • 特定结果或预测发生扭曲,削弱公平性
  1. 抽样偏见
  • 数据收集时样本未能代表整体人群而产生的错误
  • 结果难以泛化,降低预测准确性
  1. 选择偏见
  • 在数据或案例选择过程中,对特定元素的高估或低估
  • 分析结果出现偏差,导致得出错误结论
  1. 表征偏见
  • 数据集未能恰当反映特定群体或特征
  • 模型对某些群体做出不准确的预测
  1. 遗漏、自选择与数据不平衡偏见
  • 数据中缺失重要特征或变量,导致模型预测不准确
  • 由于数据不完整,结果可靠性降低
  • 因参与者自我选择,研究或调查中的样本代表性下降
  • 结果偏向特定群体的观点或特征
  • 由于各类别间数据量不平衡,模型对特定类别做出有偏预测
  • 对稀有类别的预测准确性下降
  1. 过拟合偏见
  • 模型在训练数据上过度专门化,削弱其对新数据的泛化能力
  • 实际应用中性能下降
  1. 隐私偏见
  • 为保护个人信息而限制数据收集时,在数据集中产生的偏见
  • 由于模型缺少部分信息,预测能力降低
  1. 有偏损失函数
  • 设计出倾向于特定结果的损失函数,导致模型学习过程产生偏倚
  • 损害模型的公平性与准确性

专栏 2. 偏见类型(续)

B. 社会性偏见

  1. 社会文化与社会经济偏见
  • 数据或算法中反映的社会或文化刻板印象或偏见
  • 针对特定群体的歧视性或不公平结果
  • 人工智能系统中固有的针对特定性别的偏见或刻板印象
  • 基于性别的歧视性结果
  • 人工智能系统中反映的针对特定种族或族裔的偏见
  • 人工智能系统中固有的基于社会经济地位的不平等或歧视
  • 基于收入或教育水平的不公平结果
  1. 年龄与语言偏见
  • 人工智能模型中包含基于年龄群体的歧视或成见
  • 基于年龄的不准确预测或歧视性结果
  • 对某些用户因语言或方言偏见而产生的负面影响
  • 未能体现语言多样性,降低准确性
  1. 地理偏见
  • 数据过度反映特定地区或地点
  • 未能考虑区域特征,削弱模型的泛化能力
  1. 刻板印象、从众与数据不平衡偏见
  • 人工智能系统中反映的社会形成的刻板印象
  • 强化歧视性结果或预测
  • 倾向于遵循数据或决策中反映的多数人观点或行为
  • 难以做出独立判断,导致有偏结论
  1. 认知偏见
  • 人工智能开发团队或数据科学家固有的偏见
  1. 确认偏见
  • 有选择地解释或收集信息/数据以证实现有信念或假设
  • 难以做出客观判断,导致有偏结论
  1. 自动化偏见
  • 人类过度信任自动化系统或人工智能判断
  • 用户在未识别系统错误或局限性的情况下,盲目遵循错误决策
  1. 经济偏见
  • 人工智能公司为最大化利润而主动操纵数据与算法

4.3 数据隐私

人工智能广泛依赖个人数据,由此引发个人信息泄露与滥用的担忧(European Union, 2016)。该领域亟需法律规制与伦理考量。AI 系统所收集与处理的数据可能包含敏感个人信息,若处理不当,可能违反《通用数据保护条例》(GDPR)等法律法规。去标识化或匿名化措施若实施不充分,可能导致个体身份被重新识别;而数据滥用或遭黑客攻击等风险依然存在。这些问题不仅威胁个体隐私权,亦可能损害社会信任。

因此,对基于 AI 的政策决策,必须实施严格的个人信息保护管理与控制机制。政府与相关机构应建立法律与制度框架,在数据利用与隐私保护之间取得平衡。应落实诸如“数据最小化原则”、基于知情同意的数据采集、以及个人信息影响评估等方法。此外,提升公众对个人信息保护的认知与教育亦至关重要。

4.4 问责性

随着人工智能系统日益应用于高风险公共领域,问责性已成为可信赖 AI 的基石。然而,由于 AI 系统本身的复杂性,以及涉及开发者、数据提供方、平台运营者、政府机构与终端用户等多方利益相关者的生态环境,实现清晰的责任分配与追溯尤为困难。这些主体可能分别参与系统的研发、训练、部署与监督环节,一旦产生不良结果,往往难以界定单一责任方。

这种复杂性催生了“分布式责任”(distributed responsibility)概念——即多个利益相关者在其全生命周期中共同塑造 AI 系统的行为(Floridi & Taddeo, 2016;日本政府, 2016;AI 战略委员会, 2017)。若缺乏明确的治理结构,责任的分散可能导致“问责真空”——即无人对损害后果担责,从而侵蚀公众信任与法律确定性。

为应对这一挑战,政府须确保将清晰的问责机制嵌入 AI 治理框架之中,具体包括:

  • 明确界定各利益相关者的角色与义务;
  • 制定文档化与可追溯性标准;
  • 设立具备审计与评估 AI 系统能力的监督机构。

此外,相关政策应支持救济机制建设,使受 AI 决策影响的个体有权要求解释、修正或寻求法律救济。从设计之初即嵌入问责机制,不仅能有效降低风险,亦有助于提升 AI 赋能公共服务的透明度与公信力。

4.5 综合性伦理

与可信赖人工智能相关的关切——包括公平性、可解释性、隐私保护与问责性——可在人工智能伦理(AI ethics)这一统一框架下予以系统性回应。该概念广泛涵盖人工智能技术研发与应用过程中产生的各类伦理问题,而伦理考量对于在政策决策中有效利用人工智能至关重要(Moor, 2006)。

人工智能伦理为技术的负责任使用提供了基本原则:

第一,公平性必须得到保障,以确保人工智能系统不会对特定群体或个体造成不利影响。这包括尽可能减少数据偏见,并防止算法产生歧视性结果(Whittlestone et al., 2019)。

第二,应实现透明性与可解释性,使人工智能的运行原理与决策过程能为人类所理解。通过清晰呈现 AI 判断的依据,有助于政策制定者与公众建立信任(Doshi-Velez & Kim, 2017)。

第三,须确保隐私与数据保护,防止个人信息被不当收集或滥用。这意味着在数据采集、处理、存储及销毁的全过程中,均须贯彻严格的安全保障与伦理标准(Taddeo & Floridi, 2018)。

第四,应落实人工智能系统的问责性,在发生错误或产生副作用时明确责任主体,确保能及时采取恰当的响应与纠正措施(Danks & London, 2017)。

实现负责任的人工智能应用,需审慎权衡各项伦理原则之间的张力。此类权衡之所以存在,是因为对某一原则的过度优化可能削弱另一原则的实现,因而需要精细的平衡。常见的权衡关系包括公平性、透明性、隐私与问责性之间的相互制约。表 2 展示了若干原则组合及其典型权衡关系(Sanderson, Douglas, & Lu, 2024)。

上述伦理原则也受到国际社会的高度重视。经济合作与发展组织(OECD)在其《人工智能建议书》中提出了以人类为中心的价值观、公平性、透明性与安全性等伦理原则(OECD, 2019b);欧盟(EU)则通过《人工智能法案》(AI Act)为高风险人工智能系统设定了严格的伦理标准与监管要求(European Commission, 2021)。

因此,将人工智能应用于治理的主体必须回应这些国际趋势,并在国内人工智能政策中构建以伦理为核心的法律与制度安排。

基于伦理原则运用人工智能,对于提升公众信任、实现可持续技术发展至关重要。为此,治理领域的人工智能使用者应制定伦理 AI 指南,并建立涵盖开发者、政策制定者与公民的协同治理结构(Floridi & Cowls, 2019)。同时,应通过教育与公众意识提升活动,加强对伦理议题的理解,并推动全社会形成可信赖人工智能应用的文化氛围(Mittelstadt, 2019)。

  1. 应对人工智能挑战的技术解决方案

尽管伦理问题对人工智能的可信赖应用构成挑战,一系列技术解决方案已逐步涌现,有助于缓解相关风险。本节探讨如何利用人工智能设计与技术方面的创新,提升透明度、减少偏见并加强数据保护。尽管这些创新无法完全消除所有风险,但它们为构建更可信赖的人工智能系统提供了有力工具。

5.1 可解释性的技术路径

可解释人工智能(Explainable AI, XAI)指一系列旨在使机器学习(ML)模型决策过程对人类而言更加透明、可理解的技术与方法。这对于帮助用户把握模型输出背后的推理逻辑至关重要,尤其是在培育对人工智能系统的信任方面(Adadi & Berrada, 2018)。全球范围内对可解释性问题的应对是多维度的,既包括新方法论的研发,也涵盖在各领域引入可解释性框架的实践。

5.1.1 基于模型设计的可解释性

这类方法侧重于设计本身具有内在透明性、或其架构便于解释的模型:

  • 线性模型(线性回归与逻辑回归):此类较简单模型的决策过程易于追溯与理解,常用于透明性比预测性能更重要的场景。
  • 决策树:通过一系列“是/否”问题分解决策路径,便于清晰追踪推理流程。
  • 基于规则的模型:采用预定义规则进行推理,其决策过程显式且透明。
  • 透明神经网络:神经网络架构的最新进展致力于构建可解释的神经网络,例如通过降低复杂度、对网络层与参数施加约束等方式实现(Gilpin et al., 2018)。
  • 因果推断模型:此类模型显式编码变量间的因果关系,通过清晰展现输出如何由输入决定,使模型具备直观性与透明性。
  • 局部可解释、模型无关的解释方法(LIME):LIME 通过对输入数据进行扰动,为特定实例生成黑箱模型预测的可解释近似,识别对决策起关键作用的特征(Bellamy et al., 2019)。
  • SHapley 加性解释(SHAP):基于合作博弈论,为每个特征分配一个“重要性值”,反映其对模型预测的贡献度;该方法适用于各类复杂模型(Lundberg & Lee, 2017)。
  • 代理模型(Surrogate models):采用决策树或线性模型等更简单、可解释的模型,对复杂模型的预测结果进行近似拟合,从而揭示后者如何做出决策(Molnar, 2020)。
  • 反事实解释(Counterfactual explanations):描述特定输入在何种条件下会产生不同预测结果,从而提供可操作的洞见(Wachter, Mittelstadt, & Floridi, 2017)。
  • 部分依赖图(Partial Dependence Plots, PDPs):可视化工具,展示当其他特征保持不变时,仅改变一个或两个特征时模型预测的变化趋势,从而清晰呈现特征影响力(Friedman, 2001)。

5.1.2 针对特定模型的解释方法

此类技术专为解释某些复杂模型(尤其是神经网络)而设计,广泛应用于计算机视觉与自然语言处理任务:

  • 显著图(Saliency maps):常用于图像分类任务,通过高亮显示输入图像中对模型决策起关键作用的像素或区域,直观呈现模型关注点(Simonyan, Vedaldi, & Zisserman, 2013)。
  • 注意力机制(Attention mechanisms):在自然语言处理的 Transformer 模型中尤为突出,可高亮显示模型在预测时所倚重的输入部分(如特定词语或短语),从而明晰其内部推理逻辑(Vaswani et al., 2017)。

5.2 应对人工智能偏见与“客观性幻觉”的工具与技术

应对人工智能偏见需将技术进步与伦理、监管框架协同推进。

5.2.1 偏见检测与公平性审计

  • 偏见度量与评估工具:采用差异影响分析(disparate impact analysis)、统计均等性(statistical parity)、均衡几率(equalized odds)等指标评估模型中的偏见。这些工具可量化不同人口群体间模型结果的差异程度。
  • 人工智能公平性工具包:如 IBM 的 AI Fairness 360(Bellamy et al., 2019)、Google 的 What-If Tool、Microsoft 的 Fairlearn(RBC Borealis, 2022)等开源工具,提供自动化偏见检测与缓解技术。
  • 自动化公平性审计:部署由人工智能驱动的审计系统,在人工智能全生命周期中持续评估模型公平性。

5.2.2 数据预处理技术

  • 重采样与重加权(Resampling and reweighting):通过过采样代表性不足的群体或对样本施加权重调整,平衡训练数据分布,从而提升模型在不同群体上的公平表现(Hardt, Price, & Srebro, 2016)。
  • 合成数据生成:利用生成对抗网络(GANs)等生成模型创建具有代表性的合成数据,填补有偏数据集中的缺口,增强数据多样性与公平性。
  • 偏见感知的特征工程(Bias-aware feature engineering):识别并调整那些可能导致有偏决策的特征,使模型聚焦于真正相关的属性,减少非预期偏见。
  • 隐私保护的数据增强技术:如差分隐私(differential privacy)与联邦学习(federated learning),可在保障敏感信息的前提下提升数据多样性,协同促进公平性与隐私保护(Hardt, Price, & Srebro, 2016)。

5.2.3 提升公平性的算法调整

  • 公平性约束优化(Fairness-constrained optimization):在机器学习模型的目标函数中引入公平性约束,确保模型在不同人口群体间实现均衡性能(Arya et al., 2019)。
  • 对抗性去偏(Adversarial debiasing):通过对抗训练促使模型学习无偏表征,有效削弱歧视性模式。
  • 用于偏见识别的可解释人工智能(XAI for bias identification):采用 SHAP、LIME 等可解释机器学习方法,有助于理解并修正模型的偏见行为。
  • 自适应学习模型(Adaptive learning models):引入强化学习等方法,在部署过程中动态检测并调整偏见,实现公平性的持续提升(Arya et al., 2019)。

5.2.4 事后偏见缓解

  • 输出校准与调整(Output calibration and adjustment):在模型训练完成后施加校正措施,例如平衡不同人口群体间的错误率,有助于修正有偏的结果(Hardt, Price, & Srebro, 2016)。
  • 偏见校正神经网络(Bias-correcting neural networks):开发具备自我监控与决策边界动态调整能力的模型,可促进预测结果持续保持公平性(Bellamy et al., 2019)。
  • 人在回路系统(Human-in-the-loop systems):将人类监督纳入人工智能决策流程,可识别并修正自动化系统可能忽视的偏见。

5.3 隐私增强技术(Privacy-Enhancing Technologies, PETs)

数据去标识化、匿名化、加密及差分隐私等技术,是保障人工智能系统中个人数据安全的基础性工具。它们可在最小化隐私侵犯风险的前提下,支持个人数据的有效利用(El Emam & Arbuckle, 2013)。

  • 数据去标识化(Data deidentification):通过移除或转换可识别个人身份的信息,保护个体隐私(European Union, 2016;Stallings, 2017)。该方法在降低隐私侵权风险的同时,仍保留数据分析与机器学习所需的必要信息。匿名化(Anonymization)则指彻底移除个人标识符,使个体无法被再识别;因此,其提供的保护水平仅满足个人数据保护法规的基本要求(International Organization for Standardization, 2011)。
  • 基础加密(Basic encryption):将原始数据转换为不可读格式,确保数据在传输或存储过程中即使被截获,仍处于受保护状态(Tavani, 2007)。
  • 同态加密(Homomorphic encryption):支持直接对加密数据进行计算而无需解密,从而在保障机密性的同时,促进人工智能模型的训练与推理(Gentry, 2009)。数据所有者可在本地执行加密操作,而服务器仅负责协调训练流程;解密密钥严格保留在数据所有方手中,显著降低数据暴露风险。
  • 安全多方计算(Secure Multiparty Computation, MPC):允许多方在不向彼此透露各自输入的前提下,协同计算某一函数(Solove, 2006;Tavani, 2007)。其关键应用场景包括:
    • 跨机构协作:多家医院可联合训练疾病检测模型;
    • 银行与金融领域:开展联合欺诈分析,而无需披露具体交易细节;
    • 实施优势:近期通过预计算、批处理操作与硬件加速等优化手段,显著提升了MPC的运行性能。
  • 差分隐私(Differential privacy):通过添加统计噪声,隐藏个体数据贡献,同时保持整体数据效用(Abadi et al., 2016)。其特点包括:
    • 由服务器集中添加噪声,或由客户端本地添加;
    • 采用“矩会计法”(moments accountant)追踪隐私预算消耗;
    • 通过梯度裁剪(gradient clipping)与随机扰动增强保护效果。
  • 联邦学习(Federated learning):允许在本地设备上进行模型训练,仅将模型更新(而非原始数据)上传至中央服务器(Rawls, 1971)。这种分布式范式极大降低了敏感信息暴露风险,在隐私保护与数据利用之间取得良好平衡(National Artificial Intelligence Initiative Office, 2021;Rawls, 1971)。联邦学习在医疗健康、金融与智慧城市等敏感数据密集领域潜力巨大(Li et al., 2020)。例如,多家医院可在不集中收集患者数据的前提下协同开发AI模型,从而提升诊断准确性并优化医疗服务(McMahan et al., 2017);该方法还可减轻通信网络负载、节约数据传输成本(Yang et al., 2019)。各参与方仅使用本地设备或服务器上的数据训练模型,并仅将所得模型参数上传至中央服务器进行聚合(UNHCR, 2018)。由此,原始个人数据始终安全留存于各终端设备,极大降低了数据泄露或隐私侵权风险(Mantelero, 2018)。| 核心隐私特性:原始数据永不离开用户设备;仅传输模型参数,且更新内容仅为聚合目的而临时存储。| 训练流程:包括随机客户端选择、模型参数广播、客户端本地计算、以及服务器端的安全参数聚合。| 增强型保护:融合多项互补技术:
    • 添加经校准噪声的差分隐私;
    • 基于密码学协议的安全聚合;
  • 依托可信执行环境(Trusted Execution Environments, TEEs)的硬件级隔离。| 纵深隐私防护(Privacy in depth):整合多层次防护机制——包括本地数据驻留、差分隐私、安全聚合与TEE,这种多层防护策略对于医疗、金融等高敏感领域维系高标准隐私保障至关重要。

专栏 3. 韩国案例:韩国如何在保障隐私保护的前提下,依托可信赖人工智能应对新冠疫情

作为大韩民国领先的科学技术研究机构之一,韩国科学技术院(KIST)在新冠疫情期间承担了疫情传播趋势预测与应对策略制定的重要任务(KIST, 2020)。KIST 整合大数据分析与人工智能建模,追踪感染路径并优化隔离措施:通过结合全国感染病例数据与通信数据,评估各地区风险等级,从而高效调配隔离资源;利用基于人工智能的预测模型模拟未来感染趋势,为韩国政府动态调整社交距离政策提供科学依据。此外,KIST 还借助人工智能技术研发诊断试剂盒、推进治疗研究,显著提升了疫情防控实效,并推动了医疗领域的技术创新。

为确保数据使用的负责任性并加强个人信息管理,KIST 在实现科研目标的同时,采取了一系列隐私保护措施,严格遵循以下核心原则与方法:

  • 个人数据的收集与使用:KIST 坚持“最小必要”原则,仅收集实现研究目标所必需的个人数据;在可行情况下,一律实施数据匿名化处理,以防隐私泄露;明确界定数据使用目的,避免过度或无关数据采集。
  • 数据保护措施:综合采用技术、管理与物理层面的多重防护手段,包括数据加密、访问控制、安全意识培训等,最大限度降低数据泄露与滥用风险。
  • 数据主体权利保障:确保数据主体享有访问权、更正权、删除权及限制处理权,并建立相应程序以便利上述权利的行使。
  • 数据保护影响评估(Data Protection Impact Assessment):在项目规划阶段即开展评估,识别潜在隐私风险,并落实相应缓解措施。

为平衡科研目标与隐私保护,KIST 综合运用技术性与程序性保障机制,包括数据去标识化、匿名化以及严格的数据访问控制。具体而言:

  • 采用匿名化数据集,防止个体身份被重新识别,显著降低隐私泄露风险;
  • 对与研究目标无关的数据实施访问限制,权限授予严格遵循“需知即可”(need-to-know)原则。

通过这一实践过程积累的专业经验,不仅推动了隐私增强技术的优化与完善,也为韩国更广泛的人工智能治理战略制定提供了重要参考与支撑。

  1. 人工智能治理

随着人工智能技术日益深度嵌入公共与私人领域的决策过程,构建健全的治理框架已成为全球关注焦点。确保人工智能的安全、合乎伦理且高效运用,不仅需要技术层面的解决方案,更需全面的法规制定与制度性回应。本节考察全球层面在确立共同原则与规范方面的努力,以及各国因地制宜的治理实践。

6.1 全球治理框架

伴随人工智能研发的迅猛进展,国际组织与各国政府纷纷制定相关法规与政策(OECD, 2019b;Torrey & Goertzel, 2016),旨在推动人工智能的安全与合乎伦理的使用,并最终助力人类有效管控其潜在风险。众多政府在结合本国具体国情制定治理框架的同时,亦积极开展国际合作,以推动形成基于共识的人工智能治理原则与标准。

6.1.1 联合国

联合国秘书长设立了“人工智能高级别咨询机构”(High-level Advisory Body on Artificial Intelligence),以推动形成具有全球包容性的治理建议。该机构由来自全球各地的人工智能专家组成,于2024年9月完成并向联合国大会提交题为《为人类治理人工智能》(Governing AI for Humanity)的报告,并同步通过关于可信赖人工智能的联合国大会决议(United Nations, 2024)。该报告构建了一个涵盖人工智能研发与应用全过程的综合性治理框架,强调人工智能技术必须与人权、透明性及问责制相一致;倡导通过国际合作,建立全球统一的人工智能治理规范与标准,以统筹应对机遇与风险。联合国的治理路径聚焦于构建普惠、合乎伦理的人工智能体系,确保技术造福全人类,同时依托强有力的监管与政策举措,防范潜在危害。

6.1.2 世界银行

2024年,世界银行发布了《人工智能治理的全球趋势》(Global Trends in AI Governance)报告,旨在探究人工智能治理领域的新动态,并为政策制定者以合乎伦理、透明且可问责的方式开发与部署人工智能提供指导。该报告讨论了各国可根据自身需求加以采纳的四类治理工具,并结合实例分析其优劣(世界银行集团,2024):

  1. 行业自律(Industry self-governance):如谷歌(Google)与微软(Microsoft)等企业自行制定并采纳自愿性商业伦理标准。此类做法虽可影响行业实践,但缺乏强制执行力,且存在“伦理漂绿”(ethics-washing)——即以伦理承诺粉饰实质行为——的风险。
  2. 软法(Soft law):指不具法律约束力的原则性声明与技术标准。其优势在于灵活性强,但往往未能清晰界定权利与责任。
  3. 监管沙盒(Regulatory sandboxes):通过构建受控环境,允许对创新型监管方案进行测试。然而,其运行与管理通常需要大量资源投入,成本高昂。
  4. 硬法(Hard law):指具有法律约束力的框架,例如《欧盟人工智能法案》(EU Artificial Intelligence Act)或各国立法。此类框架可提供一致性与法律确定性,但需结合本地实际情境进行适配,充分考量现有治理能力与资源条件。

此外,世界银行还制定了《人工智能风险管理框架》(Artificial Intelligence Risk Management Framework),旨在系统性管控人工智能相关风险,并推动本组织内部负责任人工智能实践的落地实施。

6.1.3 经济合作与发展组织(OECD)

2019年,OECD发布了首个政府间人工智能标准——《OECD人工智能原则》(OECD AI Principles)。该原则旨在通过推动可信赖人工智能的负责任治理,在鼓励创新的同时增进公众信任,并确保对人权与民主价值观的尊重。2024年更新后的《人工智能原则》由五项基于价值观的原则五项具体政策建议共同构成,为各国提供兼具实践性与适应性的指导(OECD, 2024)(见表3)。

6.2 各国政府

表4对所选国家/地区的政府人工智能监管框架进行了比较性概述。各国政府均制定了相应战略,以应对人工智能带来的机遇与风险,体现出其在促进创新的同时,对伦理原则、公共安全与人权保障的重视与优先考量。

此外,各国政府还采取了法律与技术手段以规范个人数据保护,尤其聚焦于数据去标识化、匿名化、加密及隐私增强技术(PETs)的应用。表5所列各国均已构建相应框架,在数据利用与隐私保护之间寻求平衡,从而确保人工智能系统既能推动创新发展,又能赢得公众信任。

  1. 人工智能与社会

人工智能技术的广泛应用,不仅正在重塑政府与企业的运作方式,也深刻影响着个体参与社会的方式。尽管人工智能为提升公共服务响应能力、改善生活质量带来了巨大机遇,但同时也引发了诸多社会关切。核心问题包括:数字鸿沟、自动化可能导致的就业岗位流失,以及弱势群体被边缘化的风险。本节探讨人工智能普及带来的社会影响,并分析如何确保其收益公平惠及全体人口各阶层。

7.1 数字鸿沟与就业岗位流失

尽管人工智能为社会进步提供了巨大潜力,但也存在加剧既有不平等的显著风险。数字鸿沟作为长期存在的挑战,可能因人工智能而进一步加深——因为能否获益于AI,高度依赖于技术可及性与数字素养水平。就业岗位流失是另一紧迫问题:由人工智能驱动的自动化可能使某些职业趋于过时(联邦贸易委员会,2012)。

为缓解上述风险,政策制定者必须将数字包容性举措置于优先地位,包括:扩大经济、高质量互联网的覆盖范围;推行数字素养教育项目;确保人工智能技术在设计阶段即充分考虑无障碍与可及性。此外,健全的社会保障体系与再培训计划,可帮助劳动者适应不断变化的就业市场,掌握在人工智能时代立足所需的新技能。

政府及公共政策设计者应积极推行数字包容政策,以确保所有公民均能平等受益于人工智能技术(日本政府,2015);强化社会保障网络、提供职业技能再培训,可有效缓解劳动者在职业转型过程中的焦虑感(日本公正交易委员会,2016)。

7.2 通过人工智能提升公共服务响应能力

人工智能为增强公共服务的响应性与个性化提供了有力工具。通过分析海量数据,政府可更深入洞察公民的实际需求与偏好:AI驱动的智能聊天机器人可提供全天候服务支持;预测性分析则有助于预判并应对新兴社会挑战(Mehr, 2017;UNESCO, 2022)。

然而,至关重要的是,必须确保由人工智能驱动的公共服务具备合乎伦理、透明且可问责的特质。政府需制定清晰的人工智能应用准则,包括数据隐私保护措施与算法偏见缓解机制。此外,必须让公众实质性参与人工智能系统的设计与部署过程,以确保其需求与关切得到充分回应。

7.3 支持弱势群体的政策举措

人工智能政策的设计必须惠及全社会所有成员,包括脆弱与边缘化群体。这要求政策制定者深入理解这些群体所面临的具体挑战,以及人工智能对其生活的潜在影响(OECD, 2018):

  • 残障人士可从AI赋能的辅助技术中获益,但必须确保此类技术真正具备无障碍性与包容性;
  • 老年人可借助人工智能维持独立生活能力与生活质量,但可能需要额外支持以应对数字世界的复杂性;
  • 低收入群体可能在就业流失与经济不平等方面承受不成比例的冲击,因而亟需为其提供适应人工智能时代所需的技能与机会(日本国家警察厅,2019)。

通过采取以人为本的人工智能治理路径,政策制定者方能充分释放其潜能,助力构建一个更加公平、繁荣的未来社会。

  1. 人工智能应用的自我评估

为支持可信赖人工智能的采纳与应用,政府和组织评估自身的准备程度与实施绩效至关重要。本节提供自我评估工具,可作为实用基准,用于追踪进展、识别差距并相应调整策略。

8.1 背景

随着人工智能技术持续演进,跨部门的政府与组织正日益探索其在提升公共治理与服务交付方面的潜力。部分机构可能已做好快速采用AI的准备,而另一些机构则需先弥补基础性差距方可推进。影响这些决策的关键因素包括:技术专长的可获得性、数据管理基础设施的完备性,以及对新兴技术相关法律与伦理框架的遵循程度。

人工智能应用的自我评估提供了一种结构化方法,用以评估准备情况,帮助识别可成长与改进的领域。通过聚焦于数据隐私、安全与技术基础设施等关键方面,组织能够更清晰地理解自身当前能力与存在的短板。这一过程有助于做出知情决策,并确保人工智能的采纳是负责任、高效且符合相关政策与国际标准的。

鉴于各地区(特别是发展中国家)在准备程度上存在差异,自我评估是一种宝贵工具,可引导人工智能的审慎、高效采纳。它赋能组织评估自身独特需求,并据此量身定制人工智能战略,促进知情决策,并确保与更广泛的目标和优先事项保持一致。政府——尤其是发展中国家——可借助清单与工具包,独立评估人工智能系统的适用性与准备就绪程度。此类工具使关键利益相关者与组织能够主动审查人工智能技术的伦理、法律与技术层面,识别潜在风险,并制定成功实施的战略(OECD, 2019b;Sheller et al., 2020)。使用清单预期带来的益处包括:

  • 前瞻性风险管理:在引入人工智能前识别潜在风险与问题,以便提前响应(Bonawitz et al., 2019)。
  • 资源高效利用:识别准备度较低的领域,从而有效分配资源并设定优先级(Bughin et al., 2017)。
  • 保障公众信任:确保透明度与系统性评估,有助于建立公众信任并提升人工智能政策的可接受度(European Commission, 2020)。
  • 增强国际竞争力:通过与国际标准和最佳实践接轨,提升在全球市场的竞争力(G20, 2019)。

8.2 人工智能准备度清单

人工智能系统本质上依赖数据驱动。从数据采集、处理到模型训练与部署的整个生命周期中,数据的质量、完整性及伦理处理方式至关重要。“没有数据,人工智能便无法存在;没有受监管的数据,受监管的人工智能也无法存在”(Collibra, 2024)凸显了数据的根本性作用。低质量数据会阻碍人工智能部署;即便最先进算法,若底层数据不佳,也会产生有缺陷的结果(Ataman, 2025)。合乎伦理的人工智能开发从根本上依赖于负责任的数据实践。偏见、公平性、问责制与透明度等问题,与数据管理方式深度交织(Berryhill et al., 2019)。数据隐私与治理是实现更广泛人工智能伦理原则的赋能要素:

  • 公平与非歧视:用于训练人工智能模型的有偏数据可能导致歧视性结果。伦理性的数据收集、细致的预处理及偏见审计——所有数据治理方面——对于缓解人工智能偏见、促进公平至关重要。专注于数据质量和偏见评估的清单项目直接支持此目标。
  • 透明度与可解释性:理解用于训练人工智能模型的数据(其来源、特征、局限性)是解释模型行为的前提条件(IBM, 2025)。清晰的数据治理政策有助于提升整体系统透明度(Collibra, 2024)。关于数据文档与溯源性的清单项目在此至关重要。
  • 问责制:健全的数据治理确立了数据处理的明确责任,这对人工智能系统的问责制至关重要(Collibra, 2024)。若人工智能系统产生不良后果,追溯数据血缘与处理步骤(通过良好治理确保)对于确定责任方至关重要。关于数据所有权与访问控制的清单项目支持问责制。
  • 安全性与稳健性:保护数据免受未授权访问、篡改或滥用,是人工智能系统安全与稳健性的基础。关于安全数据存储与访问控制的清单项目与此直接相关。为便利该流程,我们提供两份清单(图1与表6)。二者均旨在建立实现全面人工智能伦理所必需的数据处理关键标准:第一份侧重于数据采集与处理,第二份侧重于针对人工智能应用的具体数据隐私考量。

尽管人工智能伦理具有多面性,但清单聚焦于数据隐私与治理并非局限,而是一种战略选择。合乎伦理的数据管理是实现更广泛人工智能伦理原则(如公平性、问责制与透明度)的首要基础步骤。数据伦理不仅是众多伦理关切之一,而是支撑所有其他人工智能伦理原则的基础性要素。若无强有力的实践(如隐私保护、安全、质量保证与偏见缓解),人工智能系统的整体可信度与伦理稳定性将受到损害。

此外,这种以数据为中心的方法与伦理数据处理(例如:同意、最小化、安全与偏见检查)(National Assembly Research Service, 2021)与主要国际及全球公认标准相一致,这些标准旨在解决合乎伦理人工智能的基本前提;《欧盟人工智能法案》、《经合组织人工智能原则》及《联合国教科文组织关于人工智能伦理的建议》均将数据治理与数据保护视为可信赖人工智能的核心要求。

这些工具可整合进一个面向发展中国家的综合性人工智能应用评估工具包,包含以下功能:

  • 自动化评估系统:一个在线平台,输入每项内容的答案后自动计算出准备度得分。
  • 反馈与建议:根据评估结果提供缺陷反馈并提出改进建议。
  • 资源与材料:提供与每一项内容相关的教育材料、指南与最佳实践,以支持能力建设。
  • 社区与协作网络:包含促进经验分享与与其他国家或组织协作的社区功能。

图1展示了一份分步式清单,旨在帮助利益相关者评估将人工智能技术应用于数据采集与处理的适宜性。每一步均以二元问题(是/否)形式呈现,回答将决定下一步的相关环节,从而实现定制化与情境敏感型评估。为支持直观导航,该清单使用颜色编码区分流程的不同阶段:

  • 青色框:关键数据处理决策(例如:同意与法律依据)
  • 蓝色框:数据采集与可用性
  • 黄色框:数据利用阶段——再利用、共享、处置
  • 棕色框:假名化与安全措施

该流程图有助于识别在数据环境中部署人工智能技术前必须满足的法律、伦理与操作条件。

8.2.1 人工智能数据采集与处理的决策流程

该流程始于审视所涉数据是否包含需用户同意的信息,或是否属于其他合法处理依据的范畴。若涉及个人信息,流程图将进一步区分一般数据与敏感数据类型,并相应触发标准同意告知程序,或要求单独、明确的同意声明。

一旦确立了合法基础或取得有效同意,用户需核实拟议的人工智能用途是否仍与原始数据采集目的保持一致。若目的已发生变更,清单将引导用户:或为二次使用确立合法依据,或采用假名化技术以降低风险。

当采用假名化措施时,清单引入了额外保障要求:

  • 数据必须通过经授权的第三方机构进行处理;
  • 并须接受正式的安全评估,以核实已部署充分的保护措施。

若上述条件未满足,则判定该人工智能应用不合规,流程即行中止,以防不当使用。

对于仍处于原始目的范围内的数据,清单继而评估其是否可被再利用或与他人共享。若允许,用户将被引导核实安全处置的相关条件;对于尚无法立即处置的情形,则须确认是否存在法律或制度层面的数据留存要求。

仅当所有必要的法律、伦理与技术保障均已落实,该流程方视为完成。这一结构化流程确保人工智能技术的部署负责任且符合既定的治理标准。

8.3 人工智能数据隐私核查清单

为补充上述决策流程,表6提供了一份详尽的核查清单,用于评估人工智能应用场景下的数据隐私准备情况。每项条目均源自数据保护核心原则,涵盖合法采集与同意、数据留存、再利用及假名化等关键考量。

该清单按五大类组织:

  1. 直接从数据主体处采集数据
  2. 从第三方或公开来源采集数据
  3. 个人信息的使用与提供
  4. 数据留存与处置
  5. 假名化信息的处理

每项问题均采用保守的二元(是/否)格式作答,以反映数据隐私要求的严格性与不可妥协性。在诸如同意获取、法律依据或数据处置等关键领域,部分落实即视为未达合规门槛。“否”的回答并非对失败的判定,而是提示需采取后续行动以满足最低标准。

当前清单的设计强调清晰性、易用性与法律可辩护性——尤其适用于处于早期阶段或资源受限的环境。肯定回答(“是”)数量越多,表明与隐私原则的一致性越强,负责任部署人工智能的准备度也越高。该格式为实施者与政策制定者提供了实用工具,可用于识别差距、追踪进展,并优先采取行动,以构建符合隐私规范、可信赖的人工智能系统。

8.4 使用清单时的注意事项

人工智能准备度与数据隐私清单为希望评估自身人工智能采纳准备情况的组织提供了有益工具。通过系统性地评估数据基础设施、伦理准则、安全考量等关键领域,这些清单提供了一种结构化方法,以支持更明智的决策制定。它们有助于组织认清自身优势,识别需重点关注的薄弱环节,从而推动更具针对性与实效性的人工智能实施规划。

然而,尽管清单提供了关键指导,应将其视为起点而非终极解决方案。人工智能的采纳具有高度复杂性与情境依赖性,不同组织面临的需求各异。清单虽可帮助凸显核心考量因素,但各组织可能面临独特的挑战或监管要求,需在清单所涵盖内容之外采取定制化应对措施。因此,清单应与其他工具及专家评估结合使用,以确保实现全面且细致入微的治理路径。

还需注意的是,这些清单倡导一种迭代式的反思与改进过程。随着技术与监管环境持续演进,此类工具可协助组织定期回溯关键议题,并追踪渐进式进展。尽管其本身并非完备的治理框架,但可作为识别差距、激发内部对话的切入点。若能定期使用,并与更广泛的规划工作协同推进,这些清单将有助于实现更明智、更负责任且更具情境敏感性的人工智能采纳。

  1. 启示与展望

人工智能在公共部门日益广泛的应用,要求治理重点从理想化的原则宣示转向切实可行的实践行动。尽管全球性框架与伦理标准提供了宝贵指引,但将其转化为契合具体情境、可操作的实践措施,对许多政府而言仍是重大挑战。本报告正是针对这一缺口,系统阐述了可信赖人工智能的核心维度,并提出了切实可行、门槛较低的实用工具:一份人工智能准备度决策流程图与一份数据隐私核查清单。这些工具旨在协助各国政府与发展行动方在部署人工智能之前,通过结构化反思法律、伦理与组织层面的先决条件,评估其基础性保障措施是否到位。

尤为重要的是,这些工具并非旨在作为指令性清单或僵化的审计标准,而是作为适应性辅助手段,以支持组织内部的自主决策。在此定位下,它们有助于推动公共部门机构在采纳与应用可信赖人工智能过程中,做出更为审慎、有据可依的决策。通过将复杂的法律与伦理考量转化为一组结构清晰的二元提示问题,这些工具鼓励在调整仍具可行性且成本较低的早期阶段即展开讨论。若能审慎运用,并与更广泛的治理流程协同配合,它们可帮助厘清各方职责、揭示潜在风险,并加强法律、技术与政策职能部门之间的协作。

可信赖人工智能的治理不应被视为一次性的合规任务,而必须被理解为一种持续的反思、协调与适应过程。随着人工智能系统日益深度融入公共机构,推进其负责任应用不仅需要技术性保障措施,更需持之以恒的制度性投入。展望未来,或需进一步完善并本土化本报告所提出的工具,强化内部能力建设,并促进跨政府、跨部门的知识共享。尽管本报告所作贡献范围有限,但其目标在于切实支持各方持续努力,使人工智能的采纳真正契合公共部门所秉持的问责、包容与透明等核心价值。

原文: https://documents1.worldbank.org/curated/en/099805309022518222/pdf/IDU-1e9a05ec-ab52-425d-a18a-c9c91ed04a37.pdf

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/

返回网易首页
下载网易新闻客户端

请继续点击阅读以下震撼之作:

136幅锁魂 ×21密钥开玄
伊甸园真容现世新疆于阗

著名新书好书 《神奇的和田玉》
在线免费阅读/精美PDF版免费下载


点击上面零字节资讯网相机的圆圈
生成这篇文章的奇异、神秘的海报
然后将海报保存图片收藏,可发朋友圈
本文来自网络,不代表零字节网立场,
转载请注明出处:零字节网(0b.cn)

此文由访客“中国玉王”发布
“中国玉王”发布的所有文章
“中国玉王”提供的交易链接

我要在零字节网做自媒体, 发布内容

点击查看中国前沿资讯更多内容
联系我们

联系我们

18999110818

在线咨询: QQ交谈

邮箱: 515910221@qq.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们


资讯首页 手镯检索 玉王易经