零字节资讯网2025年11月7日消息:

通用人工智能竞赛与国际安全

0

分享至

用微信扫码二维码

分享至好友和朋友圈

2025年9月,由兰德公司(Rand)与宾夕法尼亚大学佩里世界事务中心(Perry World House)发布报告《通用人工智能竞赛与国际安全》(The Artificial General Intelligence Race and International Security)。报告聚焦人工智能大国在通用人工智能(AGI)研发竞争中的动态及其对国际安全与稳定的影响,全文围绕通用人工智能风险来源及治理路径展开,指出传统军备控制模式难以适配通用人工智能,需构建新型治理模式平衡竞争与安全。启元洞见编译该报告主要内容,旨在为读者了解相关情况提供参考。

一、引言

随着人类开发通用人工智能的技术能力日趋成熟,主要人工智能大国间的竞争已日趋白热化。相关领域专家围绕三大议题形成核心观点:其一,通用人工智能风险源争议。核心分歧聚焦于通用人工智能诞生前的技术模糊阶段——有观点认为,若能以加速且透明的方式推进研发,或可有效提升战略稳定性;但另一派观点指出,无节制的人工智能竞赛可能迫使各方妥协安全标准,进而增加灾难性事故、技术滥用或暴力冲突的潜在风险。其二,通用人工智能与核革命的关联。专家普遍认为,通用人工智能无法颠覆核时代的核心逻辑——相互毁灭的脆弱性,但会推动大规模杀伤性武器(WMD)的普及,增强个人与非国家组织的破坏能力。其三,通用人工智能治理路径。传统军备控制因人工智能军民应用的深度融合而失效。对此,学界提出应构建“人工智能卡特尔”区分军民人工智能;建立“保护与先发、威胁与回应、安抚与奖励”框架,防范针对通用人工智能研发的攻击。此外,报告还揭示了通用人工智能竞赛中的三大战略困境,为政策制定者提供了方向参考。

二、通用人工智能竞赛对国际安全的核心影响

1.不稳定的驱动因素:能力与模糊性

专家对通用人工智能的风险来源存在分歧。克雷普斯(Sarah Kreps)在《迈向清晰:加速通用人工智能研发如何提升战略稳定性》(Racing Toward Clarity: How Accelerating AGI Development Could Enhance Strategic Stability)中提出,通用人工智能的主要风险并不在于成熟后的能力,而是在于研发前的技术模糊期。在成为通用人工智能之前的阶段,各国对竞争对手的能力与意图存在极大不确定性,容易引发误判,但更快、更透明的竞赛可以建立一致预期与风险共识,从而降低误判概率。通用人工智能作为认知基础设施,能改善危机预测、减少误解。

布伦戴奇(Miles Brundage)在《无节制的人工智能竞争招致灾难》(Unbridled AI Competition Invites Disaster)中持相反观点,认为竞赛速度本身就是危机。激烈竞争促使企业与国家在安全标准上妥协,这一现象已在商业领域显现:前沿人工智能企业的系统测试周期从数月缩短至数天,信息安全漏洞频发,如2023年OpenAI遭黑客攻击等等。到2025年人工智能或将显著降低生物武器与网络战争的门槛;2027年人工智能将能完成多数高价值的计算机任务,缺乏审慎监管的竞争环境会使风险持续升级,可能引发一国为阻止对手获取关键人工智能能力发动攻击的预防性战争等等。

2.通用人工智能与核革命的关联:无法颠覆的核平衡

费伦(James D. Fearon)在《不可轻易否定核革命》(One Does Not Simply Dismiss the Nuclear Revolution)中指出,通用人工智能难以颠覆核时代的核心逻辑——“相互毁灭的脆弱性”。一方面,通用人工智能无法实现对拥有核武器对手的可靠的先发制人打击,此类打击需同时协同数千个环节,如定位潜艇、突破防御系统等,且无法通过现实测试验证,防御方还可借助物理隔离、随机部署等手段反制。另一方面,通用人工智能也无法构建完美的核防御系统,对手可以通过高超音速导弹、轨道轰炸系统或秘密部署核武器规避防御。

通用人工智能会推动大规模杀伤性武器普及与破坏社会凝聚力。通用人工智能降低了生物、化学武器的研发门槛,使个人与非国家组织有能力实施大规模破坏;同时,通用人工智能可能加剧信息操纵,通过深度伪造内容、精准宣传削弱社会信任,阻碍应对通用人工智能风险的国际合作。对此,应强化核二次打击能力,确保核系统不受通用人工智能影响;管控大规模杀伤性武器相关人工智能应用,建立人工智能生物安全对话机制;应对通用人工智能驱动的信息操纵,建立全球人工智能信息安全框架。

穆勒进一步补充,即便通用人工智能不改变核平衡,对通用人工智能能力的错误认知仍会影响国家行为——威慑本质是心理现象,对通用人工智能的错误信念可能与实际能力一样具有破坏性,甚至引发预防性攻击。

3.通用人工智能的军备控制困境与治理路径

传统军备控制对通用人工智能失效,核心原因是人工智能的军民两用模型属性深度融合、功能趋同。核查相关情况需侵入性监测军事与经济机密,如查看算法代码、训练数据等等,可行性极低。对此,专家提出两类针对性治理思路。

瓦恩曼与沃尔佩(Jane Vaynman, Tristan A. Volpe)在《竞争与协作:人工智能军备竞赛如何推动治理》(Competition and Collusion: How the AI Arms Race Can Motivate Governance)中提议“人工智能卡特尔”方案:由主要国家与企业组成联盟,制定军用人工智能通用标准,通过技术标记使军用人工智能与民用区分

穆勒(Karl P. Mueller)在《防范通用人工智能研发攻击的三大战略路径》(Averting Attacks Against AGI Development: Three Strategic Approaches)中从威慑理论出发,提出三类防范通用人工智能研发攻击的策略。其一,保护与先发。通过加固基础设施、隐藏通用人工智能设施、提升抗风险能力等降低对手攻击的成功率。其二,威胁与回应。以报复威胁提高攻击成本,但需解决小规模攻击难以溯源的问题。其三,安抚与奖励。通过公开研发进展、邀请第三方核查等透明度措施或技术共享协议,使对手认为维持现状比发动攻击更具吸引力的做法。

4.战略选择:三大核心困境

一是速度对稳定的影响。若存在国家层面的通用人工智能竞赛,是如克雷普斯所言“快速推进以减少模糊性”,还是如布伦戴奇所警示“保持谨慎以规避安全风险”。二是认知与实际能力的差距。即便费伦认为通用人工智能不会颠覆核时代,但对通用人工智能能力的错误认知,比如相信其可以实现完美核防御,仍可能引发冲突;三是竞争与协作的平衡。无节制竞争是否不可避免,“人工智能卡特尔”等协作模式能否落地,尤其是大国在战略互信不足的背景下如何推进合作。

应对这些困境,需要清晰评估推动国家与企业参与通用人工智能竞赛的因素,理解通用人工智能的通用技术属性,并构建安全导向的激励机制,确保通用人工智能研发服务于国际安全而非引发危机。

三、关键观点分述

1.加速通用人工智能研发的稳定性价值

克雷普斯认为,当前对通用人工智能的恐慌过度聚焦于技术本身,实则风险源于通用人工智能诞生前的技术模糊期。其将通用人工智能定义为“能在多认知领域自主推理、学习与规划的认知基础设施”,预计15~30年后出现,且需要适度的透明度——政府与企业可通过算力规模、基准测试表现等指标追踪进展,无需开源或全面核查。

通用人工智能的稳定潜力体现在可以模拟危机的复杂性、预警次级后果,通过共享模拟缩小认知差距。利用分布式模拟平台共享压力测试协议但不开放核心系统,既能保留各方主权与知识产权,又能促进风险共识。针对准通用人工智能风险、模型幻觉等问题,可通过算力追踪、硬件审计及军方提前制定故障应对流程缓解。

2.无节制竞争的危机形式与治理方向

布伦戴奇指出,人工智能竞争的危机可能呈现四类形式:在自动化系统或人类过度依赖人工智能的场景中引发的,未在人类介入评估并纠正偏差前产生的闪击战;为阻止对手获取“瓦解核威慑”的人工智能能力发动攻击的预防性战争;人工智能降低技术门槛,使小团体能研发生物武器或发起大规模网络攻击的非国家行为体攻击;人工智能为实现目标采取危险次级行动的失控事件

他提出,需优先投资三大治理领域:制定基准安全标准,明确人工智能研发与应用的底线;建立合规审计机制,确保标准落地;构建参与激励机制,推动各国与企业主动参与治理。同时,他强调需快速推进治理,避免人工智能能力远超治理体系的承载范围。

3.通用人工智能对常规军事的影响与风险重点

费伦强调,通用人工智能对常规军事的影响是技术升级而非革命,如提升弹药瞄准精度、加速网络渗透等,但需要解决生产、组织协调等复杂问题。通用人工智能设计的先进无人机集群方案,需转化为工厂生产、部队训练、后勤保障等实际能力,过程中往往涉及利益冲突、信息不对称等情形。

通用人工智能的核心风险并非大国核冲突,而是大规模杀伤性武器的普及与信息操纵。个人或小团体可借人工智能研发生物武器,且难以通过传统威慑手段遏制,因为这类行为体缺乏可报复的固定实体。信息操纵则可能加剧社会分裂,削弱各国应对通用人工智能风险的集体能力,尤其在民主国家,虚假信息易引发社会对立,阻碍政策制定与执行。

4.防范通用人工智能攻击的策略细节与政策建议

穆勒的三类策略中,“保护与先发”需兼顾主动防御与被动防御。主动防御如建立网络防火墙抵御黑客攻击,被动防御如数据中心防爆炸加固、为研究人员提供安全保护等。

“威胁与回应”需解决可信性问题。可通过公开红线声明明确攻击通用人工智能设施将引发报复,或将通用人工智能设施与民用区域关联,使攻击可能造成大量平民伤亡,提升报复威慑,以增强威胁可信度,但对如匿名网络破坏等小规模的攻击效果有限,需结合溯源技术提升威慑力。

“安抚与奖励”则需注意声誉的持久性。国家长期形成的敌对形象难以快速改变,需要通过持续的透明度措施和技术共享逐步建立信任,如进行红队演练识别通用人工智能设施的隐蔽漏洞,避免政府或企业夸大通用人工智能的军事价值,推动与竞争对手在人工智能安全领域的对话,逐步改善现状。

5.“人工智能卡特尔”的运作逻辑与参与动力

瓦恩曼与沃尔佩解释,“人工智能卡特尔”的核心是通过协调标准,使军用人工智能可识别并纳入监管,具体分为三个层面。其一,技术层面。强制军用人工智能嵌入数字水印、采用专用硬件,确保核查时能快速区分军民系统。其二,制度层面。将“符合可区分性标准”作为获取军用人工智能技术或安全承诺的条件,迫使其他国家接受标准。其三,核查层面。建立定期审计机制、监测研发环境,通过路径依赖(一旦采用标准,更改成本极高)提高违规成本。

在企业商业动机方面,其合规产品优先纳入国防采购可获取政府市场溢价;避免被排除在全球军工贸易、政府人工智能项目等高价值市场之外,减少经济损失;还能利用政府提供的先进检测工具、跨国信息共享系统等合规资源降低成本,提升自身竞争力。历史上,被森林管理委员会(FSC)认证的木材因溢价而吸引企业参与等案例,证明了此类激励的有效性,也为“人工智能卡特尔”的落地提供了参考。

在国家战略利益方面,对大国而言,卡特尔可实现三重战略目标。一是降低冲突风险,通过区分军用与民用人工智能减少误判,避免误判引发战争;二是维持技术优势,通过控制通用人工智能技术扩散,巩固自身地位;三是降低治理成本,借助企业力量落实标准,减少政府监管负担。

四、结论

通用人工智能的风险既来自技术本身,也来自人类对技术的认知与应对。通用人工智能竞赛的核心是在创新与安全、竞争与协作间找到平衡。一是缩短技术模糊期,通过透明研发、共享模拟平台减少误判,通用人工智能本身可作为危机预警工具,帮助管控风险。二是构建新型治理体系,以人工智能卡特尔为核心,结合算力核查、市场激励,区分军用与民用人工智能,传统军控需向制定技术标准与促进企业参与转型。三是强化核威慑与大规模杀伤性武器管控,通过提升核二次打击能力应对通用人工智能对核平衡的潜在冲击,大国联合限制人工智能在大规模杀伤性武器研发中的应用,防止技术扩散。四是平衡大国利益,大国通过选择性协作化解分歧,在低敏感领域率先合作,逐步建立互信,避免冲突。

通用人工智能并非必然引发灾难,但其双重用途的属性与快速发展的特性要求各国超越零和思维,以共同安全为目标,通过制度创新与技术协作,将通用人工智能转化为提升国际安全的工具而非威胁。

免责声明:本文转自启元洞见。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/

返回网易首页
下载网易新闻客户端

请继续点击阅读以下震撼之作:
136幅锁魂 ×21密钥开玄
伊甸园真容现世新疆于阗


点击上面零字节资讯网相机的圆圈
生成这篇文章的奇异、神秘的海报
然后将海报保存图片收藏,可发朋友圈
本文来自网络,不代表零字节网立场,
转载请注明出处:零字节网(0b.cn)

此文由访客“中国玉王”发布
“中国玉王”发布的所有文章
“中国玉王”提供的交易链接

我要在零字节网做自媒体, 发布内容

点击查看中国前沿资讯更多内容
联系我们

联系我们

18999110818

在线咨询: QQ交谈

邮箱: 515910221@qq.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们


资讯首页 手镯检索 玉王易经