2018-04-12

韩国研发人工智能武器 多国研究人员抵制“杀手机器人”

编辑:金英磊
导 语

最近,韩国科学技术院大学与军工企业“韩华 Systems”合作研发自主武器,遭全球50多名人工智能学者联名抵制。

73.jpg

  浙江在线4月12日讯(浙江在线编辑 金英磊)据新华社电,全球超过50名人工智能研究人员4日联名抵制韩国科学技术院设立人工智能武器实验室,警告谨防“机器人杀手”

  联名地址由澳大利亚新南威尔士大学人工智能教授沃尔什发起。美国和日本等30个国家和地区的研究人员4日签署了一封公开信,敦促韩国科学技术院停止人工智能武器研发。联名信写道:“自动武器一旦成熟,战争发展速度和规模将前所未有。它们可能会被恐怖分子利用。”

  韩国科学技术院与韩国十大财团之一韩华集团旗下韩华系统公司合作,于今年2月开设人工智能研发中心,目的是研发适用于作战指挥、目标追踪和无人水下交通等领域的人工智能技术。

  参与抵制的研究人员说,这处研发中心实际打算加入全球竞争,研发自动军事武器。“韩国科学技术院这样的著名院校着眼于加速军备竞赛、研发武器,令人遗憾。”

  南京大学周志华教授是唯一一名中国内地学者。周志华认为,其危险之处在于让机器自己决定是否对人类进行毁灭性打击,“自主武器首先在伦理上就是错误的”。周志华认为,其危险之处在于让机器自己决定是否对人类进行毁灭性打击,“自主武器首先在伦理上就是错误的”。

  近年来,人工智能技术突飞猛进,产业界为此狂热不已。但是从已经暴露出的多起舆论事件来看,人工智能技术正在被利益绑架,伦理规范、法律约束一片苍白,这已引发业界的深忧。

  自主武器要举起简单规则的屠刀

  兵者不祥之器,非君子之器,不得已而用之。我国著名思想家老子对武器的使用曾有恰如其分的阐述。

  “武器作为一种必要的‘恶’而存在,它的伦理规范要高得多。”东南大学程国斌副教授认为,与人类控制的武器相比,自主武器依靠提前设定的程序,但再复杂的程序也是一种简单规则,一旦达到触发条件,即可自动执行,比如对方携带武器或有显著特征等,“而现场的环境是极其复杂多变的,换成是人类,当时的决策也不见得就正确,更何况是机器依据一个简单的规则”。

  一般的智能武器早就有了,但是最终做决定的都是人类。而自主武器,是要把这个“决定权”交给机器,让机器去决定是否对人类进行杀戮。

  “如果这样的武器开发出来,自主武器将导致战争的第三次革命,战争将比以往任何时候都更容易发生并且更残忍。”周志华等50多名学者在公开信中写道,它们有可能成为恐怖分子的武器。暴君和恐怖分子可以利用它们对付无辜的人群,他们不会理会任何的道德限制。如果打开了这个潘多拉魔盒,将很难关闭。

  任何一个科研领域都存在不该去触碰的东西。例如克隆人是被主流生命科学界所禁止的。这就是科技伦理划定的禁区,也是主流价值观和人类道德的共识。

  “人类在使用武器时,受自由意志和道德责任支配,而自动武器则是依据固定程序做出判断,既没有责任主体,也不会产生对杀戮的道德反思,这非常可怕。”程国斌说。

  不能让机器决定生死

  韩国科学技术院4日迅速回应遭遇抵制一事,强调“无意参与研发致命自动武器系统和‘机器人杀手’”。

  韩国科学技术院校长申成澈(音译)说,这所大学“显然意识到”关于人工智能有违人类道德的担忧。“我重申韩国科学技术院不会开展任何有违人类尊严的研究活动,包括研发缺少人工控制的自动武器。”

  按这一学府的说法,新设研发中心将集中研究如何运用人工智能命令和控制系统、导航大型无人潜水器、指导智能飞行训练以及追踪识别目标。

  发起联名抵制的人工智能教授沃尔什告诉路透社记者,机器人和人工智能技术实际可以在军事领域发挥有利作用,比如完成扫雷等威胁人类安全的任务。“但我们不能将决定生死的权力交给机器,这就越过道德底线。”

  大多数专家学者一直认为,使用致命武器时,人应当是负责启动的关键要素。对什么样的人工控制才是最适宜的讨论还未结束,相关的政策制定又已被人工智能技术的飞速发展甩在身后。随着具有认知能力人工智能系统的出现,更复杂的问题出现了。

  新美国安全中心技术和国家安全项目主管沙雷表示,自主武器系统可能因代码问题或黑客攻击而失灵,机器人攻击人类部队,人类无法作出反应或局部局势迅速升级的情况都有可能发生。自主武器系统的可靠性难以测试,会“思考”的机器系统可能以人类操控者从未想象到的方式行事。

  美国五角大楼“梅文计划”始于2017年,旨在找到加速军方应用最新人工智能技术的方式。尽管五角大楼和谷歌都表示,谷歌的产品不会创造出无需人类操作者就能开火的自主武器系统,但谷歌员工在公开信中说,参与“梅文计划”将对谷歌的品牌和人才吸引力造成不可挽回的伤害,谷歌不应卷入战争,谷歌及其合约商永远不应该发展战争科技。

  在2017年人工智能国际会议上,有硅谷“钢铁侠”之称的马斯克、苹果联合创始人之一沃兹尼亚克、研发“阿尔法围棋”的深度思维公司哈萨比斯等人,都曾签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀手机器人”。

  (综合新华社、科技日报、大洋网报道)