参考消息网9月7日报道英媒文章称,人工智能技术的军事化,正在让世界更危险。
英国《经济学人》周刊9月7日发布的题为《人工智能与战争》的文章称,世界大国之间的竞争涉及很多方面,最令人担忧、但人们最不了解的一个方面是,使用人工智能的战争。
大国都在对军事化的人工智能投入巨资,从自动化机器人到在战争白热化时为将领们提供快速战术建议的软件,任何一方都不希望落在后面。正如五角大楼人工智能事务负责人上个月所说:“我不希望看到的是,未来我们潜在的对手拥有一支完全实现人工智能的部队,而我们却没有。”
文章认为,具备人工智能的武器可以提供超人的速度和精确度,但它们也有可能打破力量平衡。为了获得军事优势,军队不仅将使用它们推荐决策,而且还让它们能够下达命令。这可能会产生令人担忧的后果。能够以比人类更快的速度思考的人工智能指挥系统可能会促使导弹以没有时间进行外交活动的节奏对航母和空军基地进行打击,而且其方式不会完全被操作人员所了解。最重要的是,人工智能系统可能会被黑客入侵,并被数据操纵。
在20世纪,世界最终找到了控制军事技术方式转变——即核弹的出现——的方法。全球灾难是通过三种办法的并用才得以避免的:威慑、军备控制和安全措施。许多人正在为人工智能寻找这样一个模板。不幸的是,它的用途有限——而且不仅仅是因为这项技术是新技术。
未来人工智能技术军事化应用示意图(美国国防部网站)
威慑的基础是一种共识,即如果动用核弹,将对双方构成灾难性风险。但人工智能构成的威胁不那么可怕,也不那么清晰。它可能会帮助突袭或挫败它们,死亡人数可能从零到数百万不等。同样,冷战时期的军备控制依赖于透明度,也就是有一定信心地知道对方到底在干什么的能力。与导弹发射井不同,不能通过卫星来监控软件。敌人可以探察到核弹头,但它们的威力不会被削弱。不过,向外界展示一种算法却可能破坏软件的有效性。双方可能会尽力误导对方。领导美国与苏联冷战时期军控努力的亨利·基辛格说:“对手对人工智能开发配置的无知将成为战略优势。”
这就剩下最后的控制——安全措施。核武库涉及复杂的系统,发生事故的风险很高。已经制定了一些协议,以确保武器在未经授权的情况下是无法使用的,比如自动防护装置,这意味着炸弹如果被过早投放,就不会引爆。需要更多思考类似的措施如何适用于人工智能系统,尤其是那些受托在混乱和前景不明朗的战场上指挥军队的人。
英媒评论称,这些规则必须体现的原则是直截了当的。人工智能必须反映人类价值观,比如公平,并且能够灵活应对诱敌之计。至关重要的是,要想确保安全,人工智能武器必须尽可能清晰明了,这样人类才能明白它们是如何决策的。在世界大国之间的对抗中,诱惑将是为了暂时的利益而走捷径。到目前为止,几乎没有迹象表明这些危险得到了足够重视——尽管五角大楼的人工智能中心正在雇用一名伦理学家。把战争留给计算机将使世界变得更加危险。