美国MQ-9察打一体无人机
装备狙击步枪的机器狗。
可远程操控的无人坦克。
最近,随着ChatGPT等聊天机器人的发展,人工智能及其前景再次受到全球关注。但对于人工智能在战争中的应用及其对平民的影响,人们则关注较少。在俄乌冲突前线,无人机、无人艇、巡飞弹、智能地雷等武器的大量使用,可能预示着一个人类使用自主武器系统进行战争的未来。
据报道,近日,一家英国智库发布了一份报告,称尽管公众对AI的兴趣大增主要是由于ChatGPT的发布,但各国军方早已将注意力投向AI未来在战场上的应用,尤其是能够进行深度学习的自主武器系统。
现状
目前仍受人类监控
未来或有更多行动自由
自主武器系统是指在“重要功能”方面具有自主性的武器系统,也就是说这种武器可以在没有人为干预的情况下选择(搜索或监测、确定、跟踪)和攻击(拦截、使用武力对抗、抵消、损毁或破坏)目标。
在最初由人启动或发射后,自主武器系统根据从传感器接收到的环境信息,并基于概括性的“目标描述”,自行启动或触发攻击。这意味着使用者并未选择自主武器系统使用武力攻打的具体目标以及精确的时间和地点,甚至对此一无所知。
在各国现有的装备中,许多遥控武器系统具有自主模式,但只能在短期内自主运行。而且这些武器在所执行的任务、攻击目标的类型及其被使用的环境方面都极其受限。大部分系统依然受到人类操作员的实时监控。
随着军事科技的发展,未来的自主武器系统可能在确定攻击目标时拥有更多的行动自由,行动时不受空间和时间的严格限制,并应对迅速变化的情况。
观点
国际社会需采取措施
减少AI武器风险
近日,国际红十字会在其网站上刊发文章认为,自主武器系统的运作过程可能会给受武装冲突影响的人(无论是平民还是战斗员)带来伤害,而且具有导致冲突升级的危险。它还会对遵守国际人道法等国际法规则特别是保护平民的敌对行动规则等提出挑战。另外,用传感器、软件和机器程序取代了人类对生死的决定,将引发人类的根本道德关切。
专家认为,迄今为止,联合国已有《禁止核武器条约》《不扩散核武器条约》《关于禁止发展、生产、储存和使用化学武器及销毁此种武器的公约》等条约,唯独没有禁止AI武器的国际法。因此,国际社会应采取以人为本的方式来处理在受冲突影响地区使用人工智能的问题。需要设立防护措施,以帮助加强现有保护措施并减少其他风险。
目前,国际社会对于致命性自主武器系统的讨论集中在其是否能够清晰区分战斗人员与非战斗人员,以及它是否会模糊化击杀行为的行为主体等几个问题上。已有一些非政府组织或游说组织,如“阻止杀手机器人运动”等,主张国际社会完全禁止致命性自主武器系统。不同的意见则认为可以加强国际法和国内法方面的监管。
据央视新闻
【链接】
AI武器
可分为三类
根据对人工智能的分类,目前的AI武器可以分为三类。
第一类是完全由人类决定并由人远程操作的无人机,美国的MQ-1“捕食者”侦察机就是代表。
第二类是机器人可以自己做一定的判断,但在执行任务期间,人类可以中断或取消任务,如以色列的“哈比”自杀式无人机。
第三类是人类完全不参与决策过程的自主型无人机或机器人。这类机器本质上还是要由人来决定,即由人编程并在一定程度上让无人机自己决策。这类无人机的最大隐患在于,可能出现程序错误而导致误伤,自主判断做出人类意想不到或不会让其进行的行动,如扩大打击范围和强度等。
AI武器的这三种分类也源于人工智能的三种分类:弱人工智能,只能完成某一项特定任务或者解决某一特定问题;强人工智能或通用人工智能,可以像人一样胜任任何智力性任务的智能机器;超人工智能或超级智能,可以像人类实现智能上的生物进化,对自身进行重编程和改进,即“递归自我改进功能”。
据中新网
来源: 厦门日报