吉林省科学技术协会主办
吉ICP备案号18002506号
吉公网安备 22010402000667号
来源:科普时报
2018-10-17 00:00:00
当人们津津乐道于能做后空翻的美国机器人惊艳亮相之时,英国设菲尔德大学的人工智能与机器人学荣誉教授诺艾尔·沙尔基日前却发出警告:一场打造杀人机器人军团的竞赛已经拉开序幕,可能出现的人形机器人也许会给世界带来灾难——导致对平民的大屠杀。“如果这些东西登场,那么它们随时可能意外触发战争。”
而上月末,在有超过70个国家代表出席的联合国武器公约会议上,美国伯克利大学教授、资深人工智能研究者斯图尔特·罗素尔公布的一段视频,曝光了一款骇人的武器——杀手机器人,那是跟蜜蜂般大小的一架智能无人机。它装备有广角摄像头、传感器和面部识别装置,并配有3克浓缩炸药。只要把目标图像信息输入它身上,它就能手术刀般精准找到打击对象。试想,如果把杀人机器蜂群释放出去,当足以可以杀死半个城市的人;如果战争冲突升级……
毫无疑问,机器人进入未来战场,势必会引发一场革命。
当然,未来的战争也很有可能是一个国家的自主武器瞄准另一个国家的自主武器,是机器和机器之间的拼杀,背后则是人的素质和科技能力的较量。或许,就此可以告别“肉体消灭”的血腥战争模式,让战争显得“文明”起来。很显然,“数字战士”的出现,不仅会改变参战者的身份和战争的摧毁能力,也将改变战争的伦理。
问题来了:机器人是否应该被武装或究竟应该给予它们多大程度的自主性?杀人机器的研发者应该对自己研发的技术负个人责任吗?机器人学领域会不会重蹈核科学家的覆辙?再说了,机器人本身没有道德标准,所以无法让其决定某个生物的生死,那么,人类能够“教会”它们吗?其实,人类自身的行为就经常违背所谓的道德准则,我怀疑,被“教”的机器人会不会因此而变得很困惑?
历史已经给足了我们“经验”:要想在全球范围内整齐划一地实现自律,消除类似远程控制的自动进攻武器那样的“利器”,是很难做到的。一种新型的军备竞赛在所难免。像《终结者》《机械战警》这样一些科幻电影,其实倒真切地反映了一种现实延伸的可能性:战争的机器人化如同一个大陡坡,其终点既无法预测也无法完全掌控。
每一次跨越技术的门槛,自然也会引发人们质疑是否因此越过了社会的红线。美国伦理学家温德尔·瓦拉赫曾经感慨:能引发致命力量的机器和技术奇点的到来是面向未来的主题,但对于目前而言相当于占位符。计算机行业已经开始研制具有一定程度的自主性和学习能力的机器。工程师们也不知道他们是否可以完全控制自主机器人的选择和行动。
而另一位美国学者戴维·科林里奇早在1980年第一次提出有关技术评价的困境时,就预见到了这种景况:“当认识到不希望的后果已经出现了的时候,技术已经成为社会经济生活密不可分的一部分,对其控制也就尤其困难了。”
我们置身于一个丰富多彩的世界,同时也生活在一个困惑和焦虑的时代。