当地时间2023年7月25日,乌克兰基辅,1700架无人机被派往前线用于对抗俄罗斯军队。 视觉中国 图
数月以来,随着ChatGPT等聊天机器人的发展,人工智能及其前景广受全球关注。但对于人工智能在冲突中的应用及其对平民的影响,人们关注较少。在战火连天的俄乌前线,无人机、无人艇、巡飞弹、智能地雷等武器的大量使用或将预示着一个人类使用自主武器系统进行战争的未来。
8月4日,一艘乌克兰无人艇袭击了一艘停泊在俄新罗西斯克军港内的俄军两栖登陆舰,造成后者严重受损。莫斯科市内近日一系列政府大楼遭袭事件也与乌方无人机有关。而俄军则在陆地战场上大量使用自杀式无人机或巡飞弹,取得了显著效果。
(资料图片仅供参考)
据《耶路撒冷邮报》8月10日报道,近日一家英国智库GlobalData发布了一份报告,称“尽管公众对AI的兴趣大增主要是由于半年多前ChatGpt的发布,但各国军方早已将注意力投向AI未来在战场上的应用,尤其是能够进行深度学习的自主武器系统。”
AI与自主武器系统
自主武器系统是指在"重要功能"方面具有自主性的武器系统,也就是说这种武器可以在没有人为干预的情况下选择(搜索或监测、确定、跟踪)和攻击(拦截、使用武力对抗、抵消、损毁或破坏)目标。
自主武器系统在没有人类干预的情况下选择目标并对其使用武力。在最初由人启动或发射后,自主武器系统根据从传感器接收到的环境信息,并基于概括性的"目标描述",自行启动或触发攻击。这意味着使用者并未选择自主武器系统使用武力攻打的具体目标以及精确的时间和(或)地点,甚或对此一无所知。
尽管在目前的军事科技水平下,自动作战的机器人尚未出现,但冲突的无人化趋势已变得十分明显。近年来在战争和冲突中“大放异彩”的巡飞弹是一种新概念弹药,它就拥有在未来演变为自主武器系统的潜力。这种武器能够在目标区上空巡弋飞行、“待机”并搜索目标,在定位目标后进行攻击。在2020年阿塞拜疆与亚美尼亚之间爆发的纳卡冲突中,巡飞弹大量参战,深刻影响战局发展,引发各国的高度重视。目前,仍在进行的俄乌冲突中双方也大量使用巡飞弹,美国向乌克兰提供了“弹簧刀”、“凤凰幽灵”等巡飞弹,俄罗斯则大量使用了“柳叶刀”、KUB-BLA等巡飞弹。已有大量视频和照片证明这类武器造成了双方人员和武器装备的严重损失。
在各国现有的武库中,许多遥控武器系统具有自主"模式",因此只能在短期内自主运行。而且这些武器在所执行的任务、攻击目标的类型及其被使用的环境方面都极其受限。大部分现有系统还受到人类操作员的实时监控。
然而,随着军事科技的发展,未来的自主武器系统可能在确定攻击目标时拥有更多的行动自由,行动时不受空间和时间的严格限制,并应对迅速变化的情况。
据美国媒体此前报道,美国军方对于利用人工智能,尤其是机器学习,来控制自主武器的兴趣日渐浓厚。报道称,机器学习软件在数据方面“经验颇丰”,能够针对具体任务自行创建模型,并制定完成该任务的策略。此类软件在某种程度上能够自我编程。但通常这种模型是一个“黑匣子”,人类极难对其进行预测、理解和解释,也难以测试机器学习系统以何种方式、在何种基础上实现特定评估或决策。一些机器学习系统在使用期间还会继续“学习”,亦即所谓的“积极”“在线”学习或“自学”,这就表示其任务模型会随时间而发生变化。
ICRC:国际社会亟需加强讨论
国际红十字会 (ICRC) 早在2015年时已经指出,目前科技发展的速度以及武器系统自主性方面的军事兴趣使国际社会迫切需要考量此类武器的法律和道德影响。
近日,ICRC于7月24日也在其网站上刊发文章认为,自主武器系统的运作过程可能会为受武装冲突影响之人(无论是平民还是战斗员)带来伤害,而且具有导致冲突升级的危险。它还会对遵守国际人道法等国际法规则、特别是保护平民的敌对行动规则等,提出挑战。另外,用传感器、软件和机器程序取代了人类对生死的决定,将引发人类的根本道德关切。
因此,围绕人工智能军事用途的对话需要将日内瓦四公约及其附加议定书中规定的国际人道法原则纳入其中。国际社会应采取以人为本的方式来处理在受冲突影响地区使用人工智能的问题。需要设立防护性措施,以帮助加强现有保护措施并减少其他风险。
目前,国际社会对于致命性自主武器系统的讨论集中在其是否能够清晰区分战斗人员与非战斗人员,以及它是否会模糊化击杀行为的行为主体等几个问题上。已有一些非政府组织或游说组织,如“阻止杀手机器人运动”等,主张国际社会完全禁止致命性自主武器系统。不同的意见则认为可以加强国际法和国内法方面的监管。
根据英国《卫报》此前报道,在2019年的一次相关会议上,不少来自发展中国家的的代表赞成完全禁止致命性自主武器系统或施以严格的监管措施,但英国、美国、俄罗斯、澳大利亚和以色列对此表示反对。英国的理由是,目前英军尚未装备完全自主的武器系统,相关讨论也不充分,因此不赞成过早实施“预防性禁止”。
关键词: