群发资讯网

中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了! 早在十多

中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了! 早在十多年前,中国就已经敏锐地察觉到了这个风险,并三次在正式场合严肃提议,要给这种技术套上“缰绳”。但遗憾的是,当时包括美国、英国、俄罗斯、印度在内的几个军事大国,齐刷刷地投了反对票或选择了冷处理。 这种武器就是致命机器人,也叫致命自主武器系统,简单说就是不用人实时操控,能自己搜索、识别目标并发动攻击的武器,比如一些自主飞行的巡飞弹、能自主作战的机器狗之类的。 当时中国就觉得,这种武器要是不管起来,以后可能会出大问题,毕竟机器没有道德判断,一旦程序出错,或者被黑客劫持,很可能乱杀无辜,甚至引发更严重的军备竞赛,所以就想着在国际上推动制定规则,约束这种武器的发展和使用。 这几个国家当初之所以拒绝,核心原因就是利益和技术自负。美国当时觉得自己的军事科技最领先,在无人机、自主武器领域投入了很多钱,要是制定规则约束,就会限制它的技术优势,没法保持自己的军事领先地位,还宣称用机器人打仗能减少士兵伤亡,是“人道主义”的体现。 俄罗斯则认为,技术不应该被强行限制,主张用指南而非禁令来管理,还觉得这种武器能提高打击精度,减少平民误伤。 英国则表示要先评估影响,不急于立法,其实也是不想被规则束缚,想继续发展自己的相关技术。 印度当时的自主武器技术还不成熟,担心一旦制定严格规则,会影响自己未来的发展,所以也站在了反对的一边。 当时,中国的提议虽然得到了120多个国家的赞同,尤其是很多发展中国家,担心这种武器的技术差距会加剧军备失衡,纷纷支持中国的主张,但因为美英印俄这些军事大国的反对,提议始终没能推进,也没能形成有效的国际规则。 之后的几年,中国没有放弃,2021年12月,在联合国《特定常规武器公约》审查会议上,中国再次提醒各国,要严防人工智能在军事领域的滥用,避免机器杀人失控,但这些国家依然没有改变立场,还是拒绝接受约束。 这几年,随着人工智能技术的快速发展,致命机器人的技术越来越成熟,当初这些国家担心的风险,一个个都变成了现实。 最明显的就是军备竞赛越来越激烈,各国都在拼命研发致命机器人,谁也不敢落后,生怕被别人赶超,整个世界的安全风险越来越高。 而且,这种武器的风险也在实战中暴露出来,2023年巴以冲突中,以色列使用的“薰衣草”AI目标识别系统,几乎完全自主决策,操作人员只做20秒的形式审查,就发动空袭,导致大量平民伤亡,据披露该系统有10%的误差率,却被默许使用。 这种情况让很多人意识到,没有规则约束,致命机器人真的会变成“杀人机器”。 更让美英印俄后悔的是,中国在提出提议的同时,也没有放松自身的技术研发,始终坚持“人类主导”的原则,研发的都是需要人类控制、不会完全自主杀人的无人装备,比如作战机器狗、无人战车等,技术水平越来越高,甚至在很多领域已经超过了这些国家。 现在,这些国家才发现,当初拒绝中国的提议,不仅没能保住自己的技术优势,反而引发了军备竞赛,让自己陷入了被动,还面临着致命机器人失控的巨大风险。 美国国内已经出现“当初该听中国的”声音,英国、俄罗斯也开始重视相关风险,出台了一些管控措施,但已经错过了制定国际规则的最佳时机。 其实,中国当初的三次提议,从来不是为了限制某个国家的发展,而是为了维护全人类的安全,避免人类被自己研发的技术所伤害。 现在看来,那些当初拒绝提议的国家,之所以后悔,就是因为他们当初只看到了眼前的技术优势和利益,忽视了长远的安全风险,最终搬起石头砸了自己的脚。 如今,致命机器人的扩散和滥用风险越来越突出,制定国际规则的紧迫性也越来越强,但因为当初的拒绝,现在再推进相关规则,难度已经大了很多,这也是这些国家最后悔的地方。