从 2010 年代开始,联合国就针对致命性自动武器(Lethal Autonomous Weapons,LAWs)的规范进行讨论,但由于各国对于 LAWs 的定义分歧,直到2018 年才形成初步共识,规定使用 LAWs 进行杀伤行动,必须经过人类下达最后指令,但却又将「防卫 性质」的 LAWs 排除在外。
日本 NHK 电视台去年即推出 AI 武器专题
「2030 通往未来的十字路口」,探讨 近年 AI 武器造成的军事和战争革新及影响,其中便谈到了 2020
年亚塞拜然与亚美尼亚战争,是人类史上首次两国之间大规模使用无人机进行的常规战争。亚塞拜然透过大量土耳其制无人机,在战事中取得优势,战胜仍将资源投注在传统武器的亚美尼亚, 使全世界见识到无人机在大规模战争中带来的影响。
2 月底爆发至今的俄乌战争,俄罗斯也运用 AI 进行网路攻击和深伪技术,短暂瘫痪乌克兰部分基础建设,假造泽伦斯基总统的投降演说,并首次动用卡拉希尼可夫公司开发的 KUB-BLA 自杀无人机(乌军则使用美军弹簧刀自杀无人机),都是正规战争中首次运用的战术。
战争爆发后,联合国在 3 月于日内瓦召开新一轮 LAWs 的规范会议,但由于俄罗斯遭欧洲国家制裁无法出席,会议并未形成任何新的共识。
近期洛杉矶时报和华盛顿邮报等媒体也撰文指 出, AI 武器带给人们的疑虑,主要在于自我意识(Self-awareness)产生的后果,和缺乏明确规范将提高战争机率两个因素。
大部分科幻电影中强调的灾难,都来自于高速发展的 AI 产生自我意识,进而决定伤害人类的假设, 而 Google 执行长皮查伊(Sundar Pichai)就曾指出, 除了医疗相关的发展外,其他所有领域的 AI 开发, 都应受到更严格的规范,尽可能排除 AI 自我意识出现的可能性。
军事、国际法和国际关系学者则普遍认为,AI 是人类军事史上继火药和核武之后最重大的转捩点,而当热兵器和核武分别在 14 和 20 世纪诞生后,都造成极为庞大的伤亡。
因此国际社会若无法在 AI 武器能造成大规模杀伤前,先拟定法规加以限制的话,新武器带来的技术优势吸引力,将升高军备竞赛的速度与规模,并提升战争意愿,冷战以来的核威慑效应会快速递减。