0
用微信扫码二维码
分享至好友和朋友圈

IPP评论是国家高端智库华南理工大学公共政策研究院(IPP)官方微信平台。
![]()
导语:2026年1月27日,美国《外交事务》杂志刊发由前美国国家安全顾问沙利文与费尔德曼合著的《人工智能时代的地缘政治》。文章指出,当前战略界对于人工智能的发展存在三大争议点,包括AI的发展方向、技术复制的难度、中国的AI战略定位。美国的政策制定建立在对以上争议的隐含假设上,单一预判存在着巨大风险。因此,作者构建了2×2×2的“八重世界”分析框架,划分出8种AI地缘政治场景,并逐一提出适配的美国策略。文章还提出,算力、风险管控、技术扩散、盟友体系是美国AI权力的四大核心来源。
文章认为,AI时代的地缘政治复杂,战略制定需打破“单一故事假设”,以“八重世界” 框架明确隐含前提、测试政策韧性。美国若能以概率化、动态化思维制定策略,可主导AI时代规则;反之,将由他国定义AI秩序。
![]()
杰克·沙利文(JAKE SULLIVAN)
哈佛大学肯尼迪学院基辛格国家治理与世界秩序实践教授。他于2021年至2025年担任美国国家安全顾问
![]()
塔尔·费尔德曼(TAL FELDMAN)
耶鲁大学法学院的法学博士候选人,此前曾在美国政府部门构建人工智能系统
每个人都对人工智能有自己的看法。有些人认为这项技术正朝着超级智能的方向发展——超级人工智能将带来超越以往任何技术的划时代变革。另一些人则认为,这将提高生产力并促进科学发现,但其发展路径可能更加不均衡,也可能不会那么引人注目。
人们对于突破性技术的复制难易程度也存在分歧。一些人认为竞争对手会迅速跟进(即快速模仿),而另一些人则认为追赶的速度会越来越慢、成本会越来越高,从而使先行者获得持久优势。虽然许多人确信中国决心在前沿领域超越美国,但也有人坚持认为中国专注于现有技术的部署,同时力求在尖端美国创新出现后将其提炼并加以复制。
每一项看似自信的政策论证都建立在对上述两种说法孰真孰假的隐性假设之上。那些优先发展前沿创新的人认为,突破性成果会不断累积且难以复制;而那些致力于在海外推广美国体系的人则往往持相反的假设。如果这些假设是错误的,那么基于这些假设制定的战略将会浪费资源,并可能使美国失去领先地位。
将所有希望都寄托于单一事件固然诱人,却也危险重重。华盛顿不需要再对人工智能时代做出新的预测。它需要的是一种在不确定性下做出选择的方法——一种能够确保美国在多种可能的未来情景中保持优势,并随着人工智能时代格局的逐渐清晰而不断调整的方法。
![]()
2025年7月23日,美国总统唐纳德·特朗普在华盛顿特区举行的“赢得人工智能竞赛”峰会上鼓掌。图源
八个世界
无论人工智能的未来最终如何发展,美国的战略都应从明确定义成功开始。华盛顿应利用人工智能来加强国家安全、促进全民繁荣,并在国内和盟友中维护民主价值观。当人工智能与公共利益相契合时,它可以推动科技进步,改善人们的生活;帮助应对公共卫生、发展和气候变化等全球性挑战;并维持和扩大美国相对于中国的军事、经济、技术和外交优势。美国完全可以在负责任地管控人工智能带来的切实风险的同时,实现所有这些目标。
真正的挑战在于如何实现目标。为了明确潜在的假设并针对不同的未来情景检验策略,人工智能战略的思考者应该考虑一个简单的框架。
这个框架围绕三个问题展开:人工智能的发展会加速迈向超级智能,还是会长期停滞不前?突破性进展容易复制,还是追赶会变得困难且代价高昂?中国是否真的在争夺前沿阵地,还是将资源投入到其他领域,并假设之后可以模仿和商品化?每个问题都有两种可能的答案。考虑所有可能的组合,会得到一个三维矩阵——一个包含八个可能世界的2×2×2图表。
第一个维度是人工智能发展的本质。一端是超级智能:一种远远超越人类、能够递归自我改进的人工智能,它能不断学习提升自身智能,创造出更多新事物。另一端是有限且不均衡的智能:它在科学、经济和军事领域拥有令人瞩目的应用,但并未彻底打破历史的规律。之所以说它是有限的,是因为它的进步最终会达到极限,至少在一段时间内如此。
之所以说它是不均衡的,是因为它的进步并不均衡;系统可能在数学或编程等领域达到惊人的性能,但在判断力、创造力或某些物理应用方面却表现不佳。如果人工智能的发展最终会达到超级智能,那么即使是微弱的领先优势也可能至关重要,足以证明大规模前沿投资的合理性。但如果人工智能的发展是有限且不均衡的,那么将无限的资源投入到遥不可及的“登月计划”中,远不如优先考虑技术的普及和推广来得更有吸引力。
第二个维度是追赶的难易程度——即快速跟进问题。在一种情况下,追赶很容易。突破性成果可以通过间谍活动迅速复制;权重泄露,即已训练模型的内部参数被窃取或泄露;在旧硬件上进行创新训练;或者模型蒸馏(即训练一个能力较弱的系统来模仿更先进的系统)。
而在另一种情况下,追赶却很难:前沿能力取决于完整的技术栈(technological stack)——专有硬件、机构专业知识、庞大且往往独一无二的数据集、充满活力的人才生态系统以及无法预见的结构性因素。模型或软件层可能很容易复制,但训练和推理背后的硬件、基础设施和人力资本的质量和规模可能更难复制。当追赶容易时,竞争更多地体现在扩散上,即在竞争对手传播其系统之前,将美国的系统嵌入到海外。在困难时期,扩散仍然重要,但战略的重点更多地放在捍卫前沿能力的基础之上——即那些能够使技术进步随着时间推移而不断累积的投入和知识。从整体来看,问题不在于人工智能是否会扩散,而在于扩散的速度、扩散对象以及扩散条件。
第三个维度是中国的战略。一方面,北京积极进取,大力投资大规模训练项目和建立竞争性实验室;另一方面,北京不急于求成,而是优先考虑技术的采纳和推广,偶尔推出大型模型来展示进展,并促使美国关注前沿领域。中国或许没有一个完全连贯的国家计划——事实上,国内不同机构的行动也可能有所不同——但在系统层面,中国的行为仍然大致可以分为两种:要么是争先恐后,要么是不争先恐后。该框架的这一维度之所以聚焦于中国,是因为目前它是美国在前沿领域的主要竞争对手。如果出现其他参与者,该矩阵也需要进行调整,以反映它们的竞争策略。
当然,现实远比任何图表都复杂得多。我们可以添加更多轴,并将每个轴视为一个连续谱。中国在尖端研发领域可能会采取中间路线,追赶的难度或许并不大。人工智能或许功能强大,但仍存在一定的局限性。尽管考虑二元结果可以简化战略规划,但决策者仍然可以通过在每个轴上进行概率性思考来考虑中间可能性。例如,中国采取部分投资战略,会增加北京紧随美国之后甚至出人意料地缩小差距的可能性。
最后,政策制定者的决策至少在一定程度上会影响人工智能的未来走向。美国的行动,特别是通过收紧或放松出口管制,可能会使追赶变得更加困难或容易。中国是加速发展还是保持谨慎,部分取决于北京如何评估人工智能的发展速度和追赶的难度。然而,通过将不确定性纳入政策框架,政策制定者至少会被迫审视自身的假设,并为多种未来情景而非单一情景进行规划。
人工智能力量的来源
在着手规划之前,不妨先思考两个问题:究竟是谁在制定美国的AI战略?华盛顿又有哪些工具可以左右AI的发展轨迹?毕竟,政府既不拥有国内顶尖的实验室,也无法决定它们的研发方向。它不像北京那样可以设定生产目标或引导投资流向。然而,即便并非直接影响AI生态系统,华盛顿的政策选择和信号传递仍然会对AI生态系统产生重大影响。
许多美国政策实际上相当于对国内人工智能产业的隐性补贴。出口管制和投资限制阻碍了中国获取先进芯片和美国资本。这些政策通过限制美国及其盟国最强劲的竞争对手,并将私人资本引导至这些公司,从而提升了它们的市值。
预期会放大这种影响。当高级官员将人工智能领导力描述为国家优先事项时,企业和投资者会预期政府会出台有利的规则、简化行政流程并加强与政府的协调。这些预期会影响企业承担的风险程度以及投资者的投资方向——其影响甚至可能超过国会拨款缓慢的影响。
华盛顿的直接支持与这些信号相辅相成。研发税收抵免、基础设施投资、联邦研究拨款以及一系列行政部门的决策——包括许可、移民等诸多方面——共同影响着人工智能能力的拓展方向和发展方式。与此同时,随着各机构开始大规模测试和采用人工智能系统,联邦采购和合作本身也成为重要的需求信号。如果人工智能的推广应用与前沿突破一样具有战略意义,华盛顿可能需要更多地利用其掌握的工具,为合作伙伴提供可信赖的替代方案,以取代北京的人工智能技术栈,并通过发展金融公司等机构,为仅靠市场无法覆盖的地区提供海外部署资金。这还包括思考美国人工智能系统的开放程度。美国必须决定是依赖严格控制的专有模型,还是推广开源替代方案,以此来引导全球采用。
然而,私营部门仍然是这场竞赛的引擎,但其利益诉求并非总是与国家利益一致。美国许多顶尖实验室押注于超级智能,将资源投入大规模训练,而非安全部署或广泛推广。一些实验室更倾向于在海外建设和运营大规模训练的基础设施,因为海外的监管更为宽松,能源成本更低,且拥有更多资金。如何化解这种矛盾,仍将是华盛顿面临的最棘手的问题之一。
![]()
弗吉尼亚州一座正在建设中的数据中心。当地居民指责科技公司和数据中心运营商消耗大量水资源,推高能源价格。图源:法新社
美国的优势从来不在于中央计划,而在于运用多种工具引导分散的体系朝着共同目标前进。它创造政策激励机制,塑造预期,并引导资本流向国家目标。如何运用这些工具来保持美国在人工智能领域的领先地位,取决于最终会形成怎样的未来。某些在一种情境下合理的政策,在另一种情境下可能适得其反。但有一些优先事项在大多数情境下都适用——这些是大多数人工智能未来发展趋势中都可能需要的国家力量核心要素,尽管它们在不同情境下的相对重要性有所不同。
计算能力(Compute),或者说计算资源(computing power),仍然是人工智能能力的基础。对芯片、数据中心以及运行所需能源的控制权,决定了谁能够训练和部署引领发展步伐的系统。机器人技术和先进制造将这种能力延伸到物理世界,将数字智能转化为生产能力。而这一切都离不开强大的工业科学基础。美国需要基础研究来推进现有技术并探索人工智能开发的新途径;需要本土人才以及从世界各地吸引的人才;需要大规模生产的制造能力;以及维持这一切运转所需的能源。尤其需要指出的是,如果人工智能公司缺乏充足的电力供应,这一瓶颈可能会限制整体发展。
风险管理通常被视为一种制约因素,因为它会延缓部署进程并限制实验,但它也可以成为稳定性和合法性的来源。正是风险管理防止了因意外事故、蓄意滥用人工智能系统或因部署人类无法可靠控制其行为而导致的失控等原因,最终造成竞争崩溃。同样重要的是,要确保安全规程和国内政治支持能够跟上能力提升的步伐。一些未来情景允许华盛顿有时间构建这一基础;而另一些情景则压缩了时间表。
接下来是扩散问题——人工智能系统在海外的传播和应用。哪些系统能够扎根,将决定谁的价值观和治理理念定义数字秩序,以及哪个或哪些国家能够获得最大的经济和战略利益。北京已经将人工智能治理本身视为一种战略输出,利用其系统、标准和监管模式来影响其他国家如何使用和监管这项技术。华盛顿在理论上对扩散充满信心,但尚未在实践中证明这一点。
美国的盟友和伙伴是这幅拼图的最后一块关键拼图。与值得信赖的伙伴携手合作,能够倍增美国的能力,并提高民主制度而非威权制度主导人工智能时代的可能性。
世界一
这三个维度——超级智能与有限且参差不齐的智能、追赶他人突破的难易程度、以及中国竞相迈向前沿与中国保持中立——构建了八种可能的世界。政策制定者的任务是,在每种世界观下,为这个矩阵填充一系列合理的政策选择。
首先,设想这样一个世界:超级智能可以实现,相关技术难以快速模仿,而中国正全力以赴地发展。这个世界看起来就像一场军备竞赛和太空竞赛的结合体:竞争将演变为争夺先机,力图率先抵达并守住前沿阵地。其利害关系极其重大。谁能研发并掌控最先进的系统,谁就能获得持久的技术、经济和军事优势。在这种极端情况下,有人认为,一旦循环式自我改进开始,领先优势可能会自我强化,使得追赶不仅困难重重,而且几乎不可能。本框架将这种可能性视为“难以追赶”的极限情况,而非将其视为基准线,并据此检验战略。
美国或许不得不考虑启动“曼哈顿计划2.0”,这将需要调动公共资源,政府与产业界进行前所未有的协调,并采取堪比军事项目的保密措施。这可能需要新的授权,或者扩大1950年《国防生产法》的使用范围。该法赋予总统广泛的权力,可以出于国防目的监管产业。这样的举措将迫使决策者在两种方案中做出选择:一是将研发工作集中于单一机构,以确保严格的安全监管;二是维持多个前沿实验室之间的竞争,并假设并行实验能够更快地取得成果。
在这种情况下,华盛顿将把出口管制收紧到可执行的极限。半导体供应链的每个环节都将受到更严格的监管,与盟友的协调对于防止规避至关重要。模型权重(决定系统行为的数值参数)、训练数据和数据中心都需要加强防范,以防止被窃取和破坏。
基于避免人类对超级智能失去控制的共同利益,与中国进行风险管理将成为重点。系统发展速度越快,发生事故和意外升级的可能性就越大,因为自主系统之间的交互方式往往是双方都无法完全预料的。一个可行的方案是达成相互约束协议,限制自身发展,同时北京和华盛顿各自构建能够跟上步伐的安全系统。但考虑到彼此间的不信任、核查方面的挑战,以及撕毁协议、竞相发展可能带来的潜在利益,这样的安排将十分脆弱且难以维持。
由于追赶难度极大,且中国的成功并非必然,美国或许会发现自己只有很短的时间窗口,率先掌握超级情报。届时,华盛顿将面临抉择:是否采取措施阻止其他国家获得同等能力。反之亦然:如果北京率先达到这一水平,华盛顿也需要做好准备,管控并减轻其带来的危害。如果美中两国都跨越了这一门槛,则需要通过明确的保障措施、沟通和克制来降低风险,同时努力防止失控,并防止超级情报落入流氓国家或非国家行为体之手。
世界二
在另一个平行世界里,超级智能依然可以实现,新技术的追赶依然困难重重,但中国并未竞相追逐前沿技术。在这种情况下,美国将迎来人工智能领域的单极局面(a unipolar AI moment)。即便北京采取部分前沿技术投资策略,追赶的难度也几乎可以肯定,美国将独占技术巅峰,并拥有真正主导未来世界格局的机会。届时,核心问题将不再是如何赢得这场竞赛,而是如何运用并巩固领先优势。
在工业层面,人工智能的发展可以采取更为稳健的步伐。虽然研发投入应保持足够高水平以达到超级智能的目标,但可能无需像曼哈顿计划那样大规模动员。美国必须确保前沿领域的安全——保护模型权重、计算资源和关键人才——同时允许创新生态系统动态运作。值得注意的是,随着市场成熟和一些人工智能公司倒闭,不应允许中国收购它们的知识产权。
这种未来会让许多其他国家感到不安。将如此强大的变革力量集中在一个国家,会让人怀疑华盛顿是否会以负责任的态度领导,还是仅仅追求狭隘的国家利益。美国的任务是建立并维护一个民主的人工智能秩序,从而在人工智能前沿领域建立起对美国领导地位的信任——这与华盛顿在1945年面临的任务类似,但在当今的政治和地缘政治格局下,难度要大得多。由于目前尚无直接竞争对手掌握超级智能,美国可以更自如地采取单边克制,稳步推进前沿发展,确保安全。人工智能的扩散将具有战略性和选择性:在确保盟友和伙伴安全获取的同时,防止不受控制的扩散。
在国内,美国可以着重构建新的社会契约。如果人工智能能够带来巨大的生产力和能力提升,那么挑战就将转向如何将这些提升转化为惠及全民的繁荣,同时增强社会应对人工智能带来的冲击的能力。合理的监管既能确保安全和问责,又不会阻碍发展。
当然,这种单极局面并非必然会持续下去。如果美国发展出超级智能,中国很可能一夜之间就会加入竞争,其他大国也不会坐视不理。华盛顿必须决定如何应对,以及如何利用自身地位来左右这项技术的传播方式和范围。
世界三
第三种可能性是人工智能全面扩散的世界:超级智能唾手可得,追赶也易如反掌,而中国正遥遥领先。突破性进展会迅速累积,但复制也同样迅速。在这样的世界里,美国的任务不再是遏制,而是增强韧性——也就是说,要让国家的网络安全、生物安全、基础设施和国防系统做好准备,以抵御人工智能带来的各种威胁。
是竞相追逐还是紧随其后,将成为一项战略选择。如果突破性进展迅速扩散,率先抵达前沿所带来的优势可能转瞬即逝,但即便只是短暂地让其他人先行一步,也会造成一段相当长的脆弱期。如果进步持续快速累积,那么率先到达前沿就显得更加重要,因为先行者将率先攀登高峰。最理想的策略可能是采取防御性竞争,在保持高研发投入和前沿能力的同时,通过构建新的安全保障和韧性体系来应对技术进步。
创新生态系统本身将面临压力。单一的国家冠军企业提供的保障价值有限,因为其研发成果很快就会被复制;如果投资者眼睁睁地看着利润随着创新成果的快速复制而消失,那么维持众多致力于尖端技术的私营企业的生存将变得异常艰难。随着超级智能商品化,许多此类公司将会倒闭。那些致力于构建更优商业模式以获取价值的创新企业将会成功,但那些致力于构建更优人工智能模型的创新企业则未必能够成功。
风险管理的重要性将日益凸显,这不仅体现在应对事态升级和误判方面。为了降低不受控制的扩散对非国家行为体和流氓国家的威胁,美国必须与盟友和中国建立新的全球合作机制,以减缓或阻止不负责任的行为者获取相关技术。尽管美中联合制定限制协议仍难以有效执行,但两国对当前形势下日益严峻的危险性的认识,可能会使达成协议更具可行性。
出口管制或许仍然有用,但其有效性取决于追赶的难易程度。如果中国开发出可行的替代计算技术,那么芯片管制将基本失效,竞争将转向全球部署。如果追赶的难易程度源于其他因素(例如模型提炼、技术窃取或新算法和实用技术的快速传播),那么芯片管制的效力将不如其他情况,但仍然可以作为争取时间和减缓技术扩散的工具。
![]()
SK海力士周二表示,公司正在考虑设立一个专注于人工智能领域投资的业务部门。此前有媒体报道称,该部门计划设立在美国。图源:路透社
世界四
如果超级智能能够实现,追赶并不难,而中国又没有参与竞争,那么美国将迎来一个短暂的单极世界窗口。美国或许能够率先研发出人工智能超级智能,但一旦其他国家开始竞赛,它们也会迅速跟进。鉴于中国并不急于求成,暂缓大规模推进超级智能研发的逻辑就显得更有说服力,尤其是在这样做能够避免全面扩散的情况下。然而,这条路依然充满风险:中国可能暗中展开竞赛,或者其他国家也可能超越美国的能力。
如果美国继续保持领先优势,就必须决定如何利用这一优势。华盛顿可以尝试利用这短暂的窗口期阻止其他国家抢占先机。或者,它也可以利用这段短暂的、不受挑战的超级情报优势期,加强自身及盟国的防御,并着手实施防范失控和情报无限扩散的措施。
由于北京不会参与竞争,它很可能会采取不同的策略,将美国的突破性成果商品化,通过低成本的人工智能出口在全球范围内推广中国系统,并通过机器人技术将人工智能与现实世界连接起来。这将使技术扩散成为一场重要的竞争。美国需要投资机器人技术和先进制造业,将数字领域的突破转化为实际的工业应用,并在中国填补空白之前,果断地在海外推广安全、民主的系统。
世界五
在下一组可能的未来世界中,超级智能不再是选项之一。在其中一种情景中,追赶突破性技术将变得异常困难,而中国正竞相冲向前沿。中美两国将展开一场旷日持久的创新竞赛。尽管风险依然很高,但远低于超级智能情景下的风险。即便研发投入不再达到紧急水平,仍然至关重要;同时,还需要通过长期产业政策来支持研发支出,以构建持久耐用的机器人技术和先进制造能力。政策制定者必须意识到,市场往往会误判转折点——投资者可能在人工智能充分发挥潜力之前就恐慌地宣称存在“泡沫”,或者在技术成熟后仍继续投资。风险管理的重点将不再是控制权的丧失,而是生物、网络或军事应用领域的滥用。
扩散和部署的重要性将显著提升。美国必须大力推动人工智能在国内工业和军事领域的应用,并迅速将美国及其盟国的系统推广到海外。即使是非前沿模型——只要集成良好、价格低廉或配备强大的基础设施——也能占据巨大的市场份额,北京从过去的经验中对此深有体会。模型和数据中心的安全仍然至关重要,因为追赶并非易事,前沿模型对于保障美国及其盟国的系统安全仍然必不可少。但首要任务是尽早让功能强大的系统得到广泛应用,在中国的替代方案占据主导地位之前,建立用户熟悉度和依赖性。出口管制对于减缓中国的步伐仍然有效,但美国必须注意避免阻碍海外部署。
世界六
在一个没有超级智能的世界里,追赶变得异常艰难,而中国又没有参与这场竞赛,美国将保持着显著的领先优势,并拥有巩固自身优势的黄金时期,利用人工智能开发新的救命药物、扩大教育规模并振兴落后的美国产业。中国未必会完全退出人工智能领域,但北京会大幅减少对前沿模型研发的投资,从而有效地退出尖端能力的竞争。取而代之的是,中国将专注于应用和将美国的突破性成果商品化。与此同时,华盛顿则可以专注于安全、问责制,并确保人工智能带来的收益能够转化为广泛的繁荣。
在国际层面,美国将有空间构建一个积极的人工智能融合世界愿景,欢迎合作伙伴加入其人工智能生态系统,并提供模型、数据和基础设施的访问权限,同时将关键要素牢牢扎根于国内。其目标并非尽可能广泛、迅速地推广美国系统,而是确保推广的系统安全可靠,并符合民主价值观。
世界七
倒数第二种情景设想人工智能发展有限且不均衡,追赶容易,中国将率先占据领先地位。在这种情景下,中美两国展开扩散竞赛。由于突破性成果易于模仿,任何国家都无法长期垄断人工智能;优势将来自于比竞争对手更快地研发和商业化。
私人资本将更难驾驭。如果这项技术容易被复制,投资者可能会因为看不到多少可靠的回报而减少投资。但美国仍然需要参与这场竞赛;率先传播的系统将塑造全球格局,并应体现美国的价值观。而且,由于中国也在参与竞争,美国需要以相同甚至更快的速度进行创新,以防止北京损害美国的网络安全、生物安全以及军事和情报优势。
技术扩散不仅将成为人工智能战略的一个组成部分,更将成为美国外交政策的核心支柱。中国已系统性地将其技术推向海外市场,并常常将其与融资和大型开发项目捆绑在一起。美国理所当然地会对允许全球数字基础设施建立在中国模式之上感到担忧,因为这些模式能够窃取数据、监控通信并开展影响深远的行动。华盛顿需要将人工智能扩散融入其外交政策,扩大诸如发展金融公司等机构的职权范围和可部署资金,以帮助美国及其盟国企业在全球范围内建设数据中心、网络和区域定制系统。这将要求美国领导层关注的重点并非短期利润,而是建立一个更多地依赖美国系统而非中国系统的世界。
如果复制轻而易举,扩散不可避免,那么保密就几乎毫无意义。更好的策略或许是开源或广泛授权关键系统的安全版本,确保它们运行在美国或盟国的平台上,而不是敌对国家的平台上。在这种情况下,出口管制的作用会大大降低,在某些极端情况下甚至会阻碍技术扩散,因为中国可以通过快速复制美国技术来可靠地绕过这些管制。
世界八
在最终的世界里,人工智能的发展路径将与以往许多重大技术类似。美国将引领创新,但技术进步很容易被复制。这种搭便车现象将使私人投资更难用于大规模前沿技术研发,而由于中国并未参与竞争,公共支出中以国家安全为由的理由也将不再那么全面。相反,人工智能投资将取决于其普及带来的预期收益。开源模型很可能占据主导地位。
人工智能领域的领导权之争本质上也将是一场普及之争。它类似于之前的竞争,例如5G之争,后者主要由部署和规模驱动。华盛顿的任务是确保值得信赖的美国及其盟国系统成为全球产业的默认基础设施,从而减少北京建立低成本可行替代方案的空间。
从情景到战略
人工智能时代的战略不再是预测单一结果或一项正确政策,而是更多地运用概率思维。为了运用这一矩阵,政策制定者首先应选择一个基准情景——他们认为最有可能出现的世界。
每一项重要的政策提案都应以此基准情景为参照进行检验:该政策在人们所设想的世界中是否合理?政策制定者还必须确定,在那些美国风险最大、利益攸关的世界(例如“世界一”)中,如何避免或减轻最坏结果——即便他们认为这些世界并非最有可能出现。在此基础上,他们应采取对冲策略,使战略与基准情景保持一致,同时确保其在最具挑战性的世界中也能保持韧性。这意味着要明确哪些政策在多个世界中都有效,哪些政策可以在预测的未来发生变化时进行调整,以及哪些政策会在基准情景被证明错误时造成损害。
针对八种可能的未来世界,政府应制定一套随时可执行的计划,并能根据形势变化进行调整。这要求各机构具备概率思维。国家安全委员会应利用该矩阵,针对不同的未来情景对美国政策进行压力测试。情报部门应追踪沿三个维度(例如前沿领域的进展速度、新能力的复制速度或中国投资的变化)的动态信号,并据此更新每种未来情景发生的概率。高级国家安全官员应做好准备,在另一种未来情景似乎极有可能出现时,提出政策调整建议。任务并非做出完美预测,而是在风险与回报之间取得平衡,根据概率变化调整优先事项,根据实际情况重新绘制矩阵,并建立相应的系统和流程来完成这些工作。
这个框架不仅适用于政策制定者,也为所有人参与关于人工智能和地缘政治的辩论提供了一种切实可行的方法。这类辩论往往以双方各说各话而告终;如果参与者能够明确各自假设的未来走向,辩论将会更加富有成效。
人工智能的发展前景是会迎来变革性的飞跃,还是会停滞不前?突破性成果会迅速传播,还是难以复制?中国是在争先恐后地引领潮流,还是在伺机而动,最终实现技术商品化?提出这些问题,并将双方的论点映射到这个矩阵上,往往能够揭示分歧的根源究竟在于政策建议,还是对未来走向的假设。
该框架的目的并非预测最终世界,而是为了在不确定性面前规范战略——明确假设并与其他方案进行对比检验。该框架也旨在不断发展演进。人工智能的发展维度远不止此处提出的三个维度;一些目前看似最为重要的问题最终可能会得到解答,而新的问题也会随之出现。
例如,如果超级智能触手可及,那么发展幅度有限的可能性将不再重要,该框架可能会新增一个维度,考察两种新的可能性:有益的超级智能和危险的超级智能。随着技术格局的转变,除中国以外的其他行为体也可能变得更加重要。关键在于建立一个能够随着证据的积累而不断调整的政策框架。
人工智能时代的地缘政治绝非易事。但若缺乏严谨的思维方式,战略便会在隐藏的假设和议程的重压下土崩瓦解。通过描绘各种可能的发展方向及其所需的选择,这一框架为我们拨开迷雾提供了一条出路。如今,政策制定者的任务十分明确:他们不应将人工智能视为单一的叙事,而应将其视为一个不断变化的格局。如果美国领导人能够学会这种思考方式,他们将定义人工智能时代的走向。否则,将由他人来决定。
*文章原标题为《Geopolitics in the Age of Artificial Intelligence》(人工智能时代的地缘政治),于2026年1月27日的刊载于Foreign Affairs杂志网站。内文有所删减。
编译:刘深|IPP新媒体主管
IPP公共关系与传播中心
排 版|周浩锴
审 校|刘 深
终 审|刘金程
IPP评论热门文章
关于IPP
华南理工大学公共政策研究院(IPP)是一个独立、非营利性的知识创新与公共政策研究平台。IPP围绕中国的体制改革、社会政策、中国话语权与国际关系等开展一系列的研究工作,并在此基础上形成知识创新和政策咨询协调发展的良好格局。IPP的愿景是打造开放式的知识创新和政策研究平台,成为领先世界的中国智库。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.
下载网易新闻客户端