当前位置:福永企业网站制作资讯学者:AI或触发军备竞赛 防止其在军事上的滥用
学者:AI或触发军备竞赛 防止其在军事上的滥用
2022-05-24

原标题:邱浩、梁奎:防止人工智能在军事上的滥用

随着算法、计算能力和大数据的不断突破,人工智能已经广泛应用于经济、社会和军事领域,成为推动经济发展、技术创新和增强战斗力的动力和引擎。然而,人工智能技术也是一把双刃剑,可能成为全球风险和挑战的“潘多拉盒子”。

可能引发许多风险和挑战

首先,人工智能军事竞赛可能引发新一轮军备竞赛。人工智能技术的发展孕育着新军事革命的连锁突破,有可能成为改变国家军事实力对比的核心技术。人工智能将成为大国塑造军事优势的新杠杆。通过推进智能武器的部署,他们可以实现作战能力的迭代升级,保持或创造军事能力优势和新一代差异。对于中小国家来说,人工智能的巨大使能效应可能会弥补它们在领土、人口、经济等方面的劣势。并获得挑战大国的力量和机会。

因此,世界主要国家和一些拥有领先技术的中小国家都在努力制定发展人工智能的战略和计划,推动智能武器系统的研究和发展,推动军事力量向智能转化。据说美国军方正在推动的“第三次抵消”战略中80%的项目都与人工智能技术密切相关。从实际应用来看,智能武器系统已经在两次美国反恐战争和最近几次中东军事冲突中得到应用。人工智能的军事应用已经成为一种发展趋势,人工智能的军事竞争可能演变成新一轮的军备竞赛。

其次,人工智能的军事应用可能会大大降低战争的门槛。随着自主武器系统的大规模应用,战争对抗可能在机器之间开始。机器人、无人驾驶飞行器和无人驾驶水下机器人等自主武器已成为部署的最先进力量。人们会逐渐退到后台去扮演操作和指挥的角色。战场上的伤亡人数将会大大减少。军事情报的发展催生了非致命的战争手段,如认知战、致残战、网络战等。这可能不再旨在摧毁对手,而是通过控制他们的认知和行动来赢得胜利,从而增加了战争中“零伤亡”的可能性。智能条件下的杀伤行动主要由自主机器完成,作战方式主要是自主远程无人攻击,从而降低了战争成本。

所有这些因素都会使战争看起来更“人道”和“廉价”,并减少战争决策者发动战争的道德责任和政治压力。此外,部署在网络、太空和深海等新型作战空间的智能武器更加隐蔽,难以确定谁是发起者,成为军事对抗的“灰色地带”。

同样,智能技术的扩散将加剧非传统风险。人工智能技术与过去的核武器、化学武器和生物武器之间最显着的区别是它容易扩散。智能技术由于其低成本和高授权,容易被恐怖组织和个人等非国家行为者掌握和应用,成为恐怖分子、犯罪组织、黑客等破坏和犯罪的工具。类似委内瑞拉总统马杜罗被无人机袭击的事件表明,智能技术可能会带来非传统的安全挑战,并给国际安全治理带来新的挑战。

合作和共同管理可以预防可能的风险。

人工智能技术的应用所带来的这些风险已经引起了全世界的关注,并促使国际社会对人工智能的发展和应用进行深入思考。面对情报时代的国际安全风险,国际社会只能携手合作,或许可以从以下几个方面着手

第二是促进分担责任。所有国家,尤其是人工智能大国,都应该切实承担起自己应尽的国际责任,防止人工智能可能引发的恶性竞争和军备竞赛。特别是,智能技术在军队中的滥用将被制止,侵犯人类尊严并具有大规模破坏性影响的智能设备将不会被开发和使用。此外,所有国家都有义务加强对本国智能技术发展的管理和指导,以确保人工智能用于合法目的。

第三是努力防治疾病。爱因斯坦去世前,他后悔自己的发明被用于发展核武器,认为这是他犯下的一个巨大错误。为了防止情报时代出现类似的错误,我们必须致力于促进国际社会的集体预防和治理,并开始讨论建立人工智能国际治理体系。各国应该把风险预防放在首位,不能等到危机和风险到来才被动应对。各国应着眼于共同治理,特别注意防止智能技术与核生物技术扩散带来的重叠风险,共同探讨建立打击人工智能恐怖主义和国际犯罪的合作机制,以维护智能时代的网络安全和公共安全。

第四,深化国际交流。为了实现共同目标,应对共同挑战,防止国际社会在智能发展领域面临两个世界、两个标准、两种制度,促进国际交流与合作是当前最迫切的现实需要。各国应停止为其他国家的发展设置障碍和绊脚石,尊重其他国家发展智能技术的合法权利,停止对其他国家的企业和机构施加限制,在平等互利的基础上促进智能技术合作和产品贸易。国际社会应致力于促进人工智能技术和人才的交流,促进共同的技术标准和技术准入,并防止恶意的技术封锁。各国应在公开透明的基础上建立交流合作机制。双方应通过外交对话、国际会议、防务合作、学者交流等渠道交换意见,防止战略误判和技术对抗,建立人工智能领域的互信机制。