AI参与战争:扣动扳机由“谁”决定丨智库视点2025

随着更多的智能武器或者智能决策工具的应用,战争的整体形态也会发生变化,在这个变化进程中,人类是主角还是配角,值得我们给予更多的关注。

责任编辑:姚忆江

AI正在进入战斗决策领域。一旦出现问题,谁来负责?

在一场可能明天就爆发的战争中,指挥官站在一排显示器前,聊天机器人发出警报并发布消息称,卫星已捕获一辆卡车进入某个城市街区,该街区被指定为敌方火箭炮发射的潜在集结区。聊天机器人建议一个炮兵单位瞄准卡车并待命发射,它计算出这个炮兵部队具有最高的“杀伤概率”。 

聊天机器人还提供分析结果,附近的建筑物均不是民用建筑,但它也告知这一判断尚未得到人工证实。综合指挥系统自动派出一架无人机抵达现场,以便近距离观察。无人机拍摄的视频显示,卡车倒车进入了两个院落之间的狭窄通道。己方炮兵进行压制射击的时机可能稍纵即逝,“敌人”开火后,情况就会变得难以收拾。 

当地时间2024年10月16日,日本东京,在2024国际航空宇宙展上,三菱重工展出两种“AI无人机”模型。  (视觉中国/图)

对于指挥官来说,他需要快速针对大信息量的现场情况作出决策,混乱、不确定性、嘈杂声——一切都指向:扣动扳机,或者不扣动扳机(视具体情况而定);按下按钮,或者暂缓射击。

从根本上说,正是这些决定,定义了人类的战争行为。

其实,作为战争用途的“AI”很早就开始介入军事领域,或者我们更熟悉它之前的名字——算法。自动驾驶在很早以前就开始接管飞行员在大多数飞行阶段对飞机的管理。自动驾驶模式是飞行电脑通过对任务数据及传感器获取信息综合分析后给出的飞行建议。飞行员可以在保持监控和随时接管的模式下进行工作。这个时候,人和飞机之间有着一定的信任关系,一旦飞行员做出新的判断,或者“不信任”飞行电脑下一步的举动,他将立即着手接管。这个时候,“算法”必须要听命于飞行员,而不是拒绝接管。即使飞行员的判断是错误的,但“算法” 没有最终的指挥权限。

但随着技术的发展,未来“算法”或者我们现在所说的AI,对于战场行为决策供给的增强,会不会出现超越人类的行为;或者在瞬息万变的战场,AI出现了故障,强行接管人类“操作者”的行为,将是科学研究者下一步最关注的问题。

AI越来越强,毋庸置疑,但它未来是不是“服管”,我想大多数人还是会打上一个

登录后获取更多权限

立即登录

校对:星歌

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}