美国政府不惜牺牲部分芯片大厂(如英伟达,超威半导体等)的经济利益,也要阻隔大陆厂商获得高端人工智能芯片(下图 Silicon Expert/NORTON ROSE FULBRIGHT)。这是因为从军事战略的重新调整到外交的重建,人工智能将成为世界秩序的关键决定因素。人工智能不受恐惧和偏好等主观因素的影响,为战略决策带来了新的客观性。但即使人工智能为人类提供了客观性,最后做决定的 - 无论是决定开战还是缔造和平 - 还应该是人。保留人类的主观性,这对于国家/个体负责任地行使武力至关重要。战争中的人工智能将揭示人类最好和最坏的表现 - 它既可以作为发动战争的手段,也可以作为结束战争的手段。
但如果人工智能成为一个几乎独立的政治、外交和军事实体,这将迫使传统的权力平衡转变为新的、未知的不平衡。民族国家间的国际协调 - 过去几个世纪里实现的那种脆弱且不断变化的平衡 - 之所以能够进行,部分原因是参与者之间的平等。在一个严重不对称的世界,一个或一些国家可能比其他国家更先和更容易地采用最先进的人工智能。这就会让世界变得难以预测。在某些情况下,一些人/国家可能在军事或外交上对抗一个高度支持人工智能的国家,或者对抗人工智能本身。人工智能会导致人类激烈竞争,甚至可能挣扎求生,使社会的内部崩溃,外部爆发冲突并失去控制。
除了寻求安全之外,人类长期以来一直在为追求胜利或捍卫荣誉而战。现有的人工智能机器缺乏任何胜利或荣誉的概念。例如,它们可能永远都不会以一场血腥的传统战争,而是根据复杂的计算来快速而谨慎地完成新的领土划分和转移。或者,他们可能会为了结果而不惜牺牲人类生命地行事,从而导致一场血腥的人类生命消耗战。也就是说,人工智能可能使人类竞争发生彻底的转变,完全避免残酷的人类相互残杀。换另一种情况,人工智可以把我们带回野蛮原始的过去。
11月22日一期的《外交事务》发表了由亨利·A·基辛格(1973-1977任前国务卿,已故)、埃里克·施密特 (Eric Schimdt 特别竞争研究项目主席、前谷歌首席执行官)和克格·蒙迪 (Craig Mundie Alliant计算机系统公司联合创始人、前微软首席执行官高级顾问)联合署名文章《人工智能时代的战争与和平》(War and Peace in the Age of Artificial Intelligence)。该文改编自他们共同撰写出版的《创世纪:人工智能、希望和人类精神》(Genesis: Artificial Intelligence, Hope, and the Human Spirit)一书。以下为文章的主要内容。
人工智能安全困境
许多国家都专注于如何“赢得人工智能竞赛” (下图 Linkedin/WIRED)。在某种程度上,这种驱动力是可以理解的。文化、历史、交流和观念共同构成了当今大国之间的外交局势,加剧了各方的不安全和猜疑。各国领导人都认为,在未来的任何冲突中,战术优势的增加可能起到决定性作用,而人工智能可以提供这种优势。一场生存安全困境正在等待着我们。任何拥有超级人工智能(即比人类更聪明的人工智能)的人类行为者,首先合乎逻辑的愿望可能是尽力确保没有其他人获得同样的技术。照此逻辑合理地推论,竞争对手也都会考虑采取类似的行动 – 阻止别的对手获得自己获得的强大技术。
除了战争之外,超级人工智能可以颠覆、破坏和阻止竞争程序。例如,人工智能既可以以前所未有的威力增强传统计算机病毒,也可以伪装成计算机病毒为自己服务。就像计算机蠕虫 Stuxnet(2010年发现的网络武器,据认为摧毁了伊朗五分之一的铀离心机)一样,人工智能代理可以通过掩盖其存在的方式破坏竞争对手的进展,让敌方科学家只能捕风捉影。凭借其操纵人类心理弱点的独特能力,人工智能还可以劫持竞争对手国家的媒体,制造大量令人震惊的虚假信息,从而激发对手国内大众反对本国人工智能能力的进一步发展。
最大的人工智能模型已经在与互联网其他部分断开连接的安全网络上进行训练,故各国很难清楚地了解自己在人工智能竞赛中相对于其他国家的地位。一些高管认为,人工智能开发本身迟早会迁移到坚不可摧的掩体中,掩体中运转人工智能的超级计算机将由核反应堆提供动力。甚至现在就有数据中心建造在海底。很快它们可能会被隔离在环绕地球的轨道上。企业或国家可能会逐渐“隐匿”变得悄声无息,不再发布人工智能研究成果,这不仅是为了避免让恶意行为者有机可乘,还可以掩盖自己的发展速度。为了隐瞒其研发的真实情况,有国家甚至可能会故意发布误导性研究成果,并借助人工智能来制造让人信以为真的谎言。考虑到衡量像智能这类抽象东西的进展的复杂性和模糊性,人工智能竞赛极其难以预测。尽管有些人认为人工智能的优劣与相应的人工智能模型大小相关,但更大的AI模型并不一定在任何条件下都占优势,大模型也不一定总是胜过大规模部署的小模型。更小、更专业的人工智能机器可能会像一群无人机对抗航空母舰一样运作 - 无法摧毁它(航母),但足以使其失效。
在现实生活中,往往当一行为者表现出某一特定能力时,人们会视该行为者具整体优势 - 事事行样样精。然而,人工智能仅仅是指一种机器学习的过程,它不仅嵌入在单一技术中,还嵌入在广泛的技术中。因此,AI在任一单领域的能力并不意味着它在所有别的领域也出类拔萃 – 不同领域里事物发展通常有着完全不同的驱动因素。此外,近年来人工智能能力的指数级和爆炸式增长表明,进步的轨迹既不是线性的,也不是可预测的。一参与者现在可能“领先”另一参与者大约几个月或几年,但某特定时刻在某关键领域突然出现的技术或理论突破,就可能会颠覆现有参与者的“领先”与落后地位。
此外,在AI的世界里,没有任何决策人可以相信所获情报是最可靠的,不可以合理地怀疑事物的真实性。当一名决策者在做出决策时,她/他已经或必须考虑到自己的言行会遭到监视或受到暗藏的恶意扭曲。因此,任何做前瞻性决策的人都要从最坏的情况出发,在做战略决策时优先考虑速度和保密性。人类领袖还有这么一种恐惧:在人工智能领域是赢者通吃 - 不存在第二名。在这种压力下,政府决策人宁可在安全等领域尚不成熟的条件下,也要尽快地部署人工智能,这样就能够先于对手(国)威慑外部干扰。
战争的新范式
在数字战争时代,“闪电战”有了新的含义 - 瞬时和无处不在。攻击者无需牺牲杀伤力来保持机动性,因为地理位置不再是制约因素。这种组合在很大程度上有利于数字进攻,但人工智能时代被攻击方的反应速度提高,网络防御能够与网络攻击相匹敌。在动能战中,人工智能将引发另一次飞跃。例如,无人机将非常快速,机动性令人难以想象。当人工智能不仅可引导一架无人机,还可指挥无人机队时,AI就可构建不同的无人机云和同步飞行的无人机群,这时无人机队成为一个统一、有凝聚力、同步性完美的集体(下图 Linkedin/IDST)。未来的无人机群将毫不费力地打散并重组为各种规模的单位,就像精英特种作战部队由可扩展的分队组成一样,每个分队都能够独立作战。此外,人工智能将提供同样快速和灵活的防御。用传统炮弹击落无人机舰队是不切实际的,甚至是不可能的。但是,人工智能枪支发射的是光子和电子(而非弹药),可以重现与太阳风暴相同的致命致残能力,太阳风暴可以摧毁暴露卫星的电路。
人工智能武器将具有前所未有的精确性。科学与战争的联盟确保了仪器的准确性不断提高,人工智能有望取得更多突破,将缩小最初作战意图和最终结果之间的差距,包括致命武力的应用。无论是陆基无人机群、部署在海上的机器军团,还是未来的星际舰队,机器都将拥有高度精确的人类杀伤能力,几乎是百发百中。AI打击破坏的大小与界限将只取决于人类和机器的意志和克制。因此,人工智能时代的战争将主要归结为评估对手的意图及其战略应用,而不是对手的能力。在核时代,我们就已经进入了这样一个阶段。随着人工智能不断证明其作为战争武器的价值,其动态和重要意义将变得更加清晰。
有了人工智能这样的技术,消灭人类生命可能不是人工智能战争的主要目标。事实上,未来战争中人工智能可以完全不用人类参与作战,所以战争不那么致命。同样,人工智能不大可能侵略领土 – 却肯定会对数据中心和其他关键数字基础设施更上心。因此,输掉一方之所以缴械投降并非因为己方士兵数量减少和军械弹药没了,而是因为尚存的硅盾(芯片)已不足以拯救其掌握的技术资产。战争可能会演变成一场纯粹的机械死亡游戏,决定因素是人类(或人工智能)的心理力量。
甚至支配新战场的动机在某种程度上也是陌生的 - 人工智能战争不太可能涉及情感 - 爱恨情愁,更不用说士兵勇敢/胆怯/痛苦的概念了。另一方面,人工智能战争仍然包含自我、身份和忠诚 - 尽管这些身份和忠诚的性质可能与我们今天理解的含义不一致。战争中的算计一直相对简单:无论哪一方首先发现无法忍受战斗的痛苦,就可能弃械投降接受失败被征服。如果人工智能战争中不存在对自己缺点的意识,也没有疼痛感(因而无法忍受),什么能够促使被引入战争的人工智能克制自己,又会以什么方式来结束它所发动的冲突呢?在棋赛中,未被告知游戏结束规则的人工智能,它会一直玩到弹尽粮绝最后一枚棋子。人类的人工智能战争会以同样的方式结束吗?
地缘政治重组
起源于17世纪中叶《威斯特伐利亚和约》的主权民族国家概念只有几个世纪的历史,但主权民族国家可能不适合人工智能时代。事实上,随着大规模虚假信息和自动歧视引发人们对主权民族国家的信心丧失,人工智能可能会对各国政府的固有权力构成挑战。或者,人工智能可能会改变现存体系中竞争对手的相对位置。如果人工智能主要由民族国家自己掌握,一种可能是人类会走向一个不再有霸权的世界,另一种可能就是一个民族国家的人工智能技术强弱决定该国的国际地位。但人工智能技术也可能催化出一个全新的系统,一个放弃民族国家权力的全球治理系统(下图 CAMPUS TECHNOLOGY/Linkedin)。
一种可能性是,拥有和开发人工智能的公司将全面获得社会、经济、军事和政治权力。今天的政府被自己面临的两难困境束缚住手脚:既当私营企业的拉拉队,利用军事力量、外交资本和经济实力来推动本土企业的发展,又支持为普通公民及其隐私保密,但人们却普遍因企业的贪婪和垄断而对其持怀疑态度。政府面对的这两者之间的矛盾似乎难以调和。与此同时,企业间可以结成联盟来巩固其本已相当强的实力。这些企业联盟可以建立在优势互补和共享利润之上,或者是因为它们拥有开发和部署人工智能系统的共同理念。这些企业联盟可能会承担传统的民族国家职能,将分散的数字网络培育为其治理领域,而不会去寻求划定和扩张有界领土。
还有另一种选择。不受控制的AI开源扩散可能会催生出规模较小的人工智能流派/部落,这些AI流派/部落拥有虽不合格但却相当强大的人工智能能力,足以在有限的范围内管理、支持和保护自己。在那些拒绝既定权威、支持去中心化金融、通信和治理的人类群体中,这种由技术支持的原始无政府状态可能会胜出。或者这样的群体可能会包含宗教层面。毕竟,无论基督教、伊斯兰教还是印度教都比历史上任何一个国家的影响力都更大、持续时间更长。未来,所属宗教派别,而非国家公民身份,更可能会成为身份和忠诚的标准。
未来无论是由企业联盟主导还是由松散的宗教团体主导,每个团体宣称所拥有的“领土”,以及这些团体将争夺的新“领土”,都不会是物理意义上的几寸土地,而是数字景观,一个追求个人用户忠诚的数字景观。这些用户与任何政府之间的联系都会颠覆传统的公民观念,实体之间的协议将不同于普通的联盟。从历史上看,联盟是由领导人建立的,这种联盟有助于结盟国家在战争中增强本国实力。而在和平时期围绕普通人的观点、信仰和主观身份构建的公民身份和联盟,则需要一个新的(或非常古老的传统)帝国概念。人们将重新评估宣誓效忠这个帝国所涉及的义务和退出帝国的成本(如果在人工智能纠缠的未来确实存在的话)。
和平与权力
民族国家通过平衡理想主义和现实主义来建立和调整本国的外交政策。回溯历史,民族国家领导人往往根据现实的需求与他国达成暂时的策略性平衡,而非一劳永逸地解决纷争。随着每一个新时代的到来,暂时的策略性平衡被打破,相应地会产生不同政治秩序构成的表达。追求利益与追求价值观,如何平衡民族国家优势与全球利益,等等,一直是这种无休止演变的一部分。在外交活动中,小国领导历来都是直截了当地 - 优先考虑国家的生存需要。相比之下,那些拥有更多选择手段的全球性帝国领导人其实面临着更痛苦的困境 – 一旦选择错误,有可能让自己身败名裂,让国家万劫不复(下图 WORLD CRUNCH /Youtube/DiploFoumdation)。
自人类文明开始以来,人类组织单位的发展让民族国家间的合作达到了新的水平。可到了今天,或许是因为全球挑战的规模以及国家之间和一国内部明显的物质不平等,对这一趋势的强烈抵制已经出现。事实证明,人工智能可以满足更大规模的人类治理的需求。它能够精确和真实地洞察国家的需要,以及全球的相互作用。我们希望,出于国内外政治目的而部署的人工智能,不仅仅是用以寻求平衡的权宜之计。理想情况下,它可以提供一个全新的世界最优解决方案,能够比人类更精确、更长时间地发挥作用,从而使相互竞争的人类利益协调一致。在未来的世界里,机器智能应对冲突和谈判和平将有助于澄清甚至克服传统困境。
然而,如果人工智能确实能解决我们本应自己解决的问题,人类会面临信心危机 - 既过度自信,又缺乏信心。过度自信,是因为一旦我们了解了人类自我纠正能力的局限性,就很难承认我们在处理人类行为存在的问题时将过多权力让给了机器。缺乏信心,是因为仅用机器即足以解决人类最棘手的问题,这显示了人类设计的解决方案的缺陷 – 人的局限。如果和平是一种简单的自愿选择,那么人(类)的局限的代价就是国家间永无休止的战争。一直存在的解决方案,却从来不是人类设计的,这让我们人类无地自容。
就安全而言,与人类在科学或其他学术活动中被取代不同,我们可能更容易接受机械第三方的公正性,因为它必然优于人类的自利性 - 就像在有争议的离婚案中需要调解人一样。我们的一些最糟糕的天性将使我们得到最好的结果:人类追求自身利益的本能,牺牲他人也在所不惜,也可能让我们做好准备接受人工智能对人类自我的超越。
参考资料
Kissingeer, H. A. Svchimdt, E. & Mundie, C. (2024). War and peace in the age of artificial intelligence. FOREIGN AFFAIRS. 链接 https://www.foreignaffairs.com/united-states/war-and-peace-age-artificial-intelligence?utm_medium=newsletters&utm_source=twofa&utm_campaign=Ukraine%E2%80%99s%20Trump%20Tightrope&utm_content=20241122&utm_term=EWZZZ003ZX