来自 军事 2019-09-21 19:05 的文章

若想变成人类的好战友 军事智能化武器也需守伦理

    近日,英国《经济学人》周刊发表的《人工智能与战争》文章称,世界大国之间竞争涉及到很多方面,目前,最让人担忧、但人们又最不了解的是各国在人工智能军事方面的研究。文章认为,一旦人工智能在军事领域能够成熟应用,未来战争将会让世界变得极度危险。

    人类战争从冷兵器、热兵器形式发展到今天的信息化、智能化作战模式,已经完全颠覆了人们对战争的认识和理解。智能化是基于信息化发展而来的,智能化作战模式目前涉及领域广泛,从人机结合到无人单独作战,从有人指挥到自主决策,其作战样式几乎和科幻大片里描述的毫无二致。在叙利亚战场上,俄军遥控指挥10部战斗机器人以“零伤亡”击毙70余名伊斯兰国武装分子并夺取754.5高地,成为军事史上首例以机器人为主力的地面作战行动。预计到2025年,俄军武器装备中智能无人装备的比例将达到30%以上。美军预测到2030年前,智能无人装备能够自主执行任务,60%的地面作战平台将实现无人智能化。专家分析称,未来15年左右,大量无人机、无人船/艇和无人车等装备将成为智能化战场上双方对抗的主体装备,到2050年的时候,将实现人在回路外的授权自主或完全自主式作战。到那时,机器人将成为智能化作战的主角。

    对于人工智能军事化发展,各国进展不一,但都是在摸索中前进。由于人工智能军事化发展是未来数十年甚至上百年各国军事领域的主要发展方向,所以保密程度很高,而且任何一方都不希望落在后面。美国虽然占据着全球军事科技的塔尖,仍然不敢有一丝懈怠,五角大楼人工智能事务负责人上个月就曾说:“我不希望看到的是,未来我们潜在的对手拥有一支完全实现人工智能的部队,而我们却没有。”从这位负责人的表述中可以看出,一些科技强国在军事智能化方面有很多地方可能已经取得重大成果。

    军事智能化在赋予战争新样式的情况下,也给世界安全带来了难以想象的危险。英国著名物理学家霍金多次表达对人工智能的担忧,他认为人工智能有可能会取代人类,最终会演变成一种超越人类的新形式生命。未来的人工智能技术不仅可以拥有人类的行动能力,也可能有人类的思维能力。这种技术一旦用于军事,机器人就可以取代人类在战场上“见机行事”,甚至大开杀戮。机器人只会简单辨别敌友,很难有效辨别伤亡情况和破坏程度,一旦机器人完全摆脱人类控制,很多投降者、无辜者都会死于它们的屠刀之下。

    更为可怕的是,智能机器人是由信息技术支撑,不排除在某些时候会受到黑客侵入。如果机器人被敌国黑客控制,极有可能调转枪口向自己人开战。这就是军事智能的“剑之双刃”。各国在研发军事智能装备的同时,如果忽略了安全防护,无疑等同于在为敌人培养“打手”。

    智能化武器比核武器更危险。二战以后,包括核武器在内的大规模杀伤性武器成为军事强国的“杀手锏”,迄今,只有美国在战争中投放过两枚小当量的原子弹,其他国家的核武器基本都是用于战略威慑。这是因为,拥核国家一旦把核武器用于战争,将会给双方带来灾难性的后果,所以,国际上对使用原子弹等大规模杀伤性武器有着严格规定。另外,核设施、包括核弹头也容易被别国所探察到,这样一来,其他国家就可以有的放矢的做好防范。而人工智能的研究,既可以在室内进行,也可以拆分开进行,外部力量很难进行有效探测。另外,智能武器投入战场后杀伤力到底有多大,外部力量也无法估算。因此,人工智能的威胁要更严重一些。

    军事智能化的快速发展,对人类伦理带来明显挑战。从人类军事活动规律上看,战争与伦理似乎是一对不可调和的矛盾。人工智能用于军事,目的就是希望以最小的代价来换取战争的胜利,而本国代价小,别国代价就会大,特别是用无人智能机器人和武器装备来杀戮有血有肉的士兵,这种不对等的作战方式明显有违伦理道德。

    目前,军事智能化明显违背伦理的技术是人机连接技术。比如机脑连接技术,在士兵的脑子里植入生物芯片,或者为士兵安装人体外骨骼,让士兵超负荷行走和负重,又或者给士兵安上刺激神经的装备,让士兵在战场上不知饥饿、不知睡眠、不知疼痛。士兵是肉体之身,如果人工智能加身,即使在战场上取得胜利,也会饱受诟病。

    无人人工智能军事装备同样也面临着伦理拷问。机器是冰冷的,军事智能化程度再高,自主指挥、自主控制能力再强,也无法与人相比。当机器人敌友不分杀戮成瘾,当机器人中了病毒自我残杀,当机器人不听后方指令无法终止战争,若出现这种情况,这样的军事智能化将是全球之灾、人类之祸。

})();