1. XenForo 1.5.14 中文版——支持中文搜索!现已发布!查看详情
  2. Xenforo 爱好者讨论群:215909318 XenForo专区

科技 专家警告未来自主武器或可自己选择并攻击目标

本帖由 漂亮的石头2016-04-07 发布。版面名称:新闻聚焦

  1. 漂亮的石头

    漂亮的石头 版主 管理成员

    注册:
    2012-02-10
    帖子:
    488,414
    赞:
    48
    北京时间4月7日消息,在战场上使用自主武器能够大大减轻军人的负担,但有专家警告称,自主武器会对我们的安全造成一定的威胁。研究人员在今年1月于瑞士达沃斯举办的世界经济论坛上表示,他们很担心这些战争机器会被用于不道德的军事行动中,成为黑客操纵的工具。与完全受人类控制的无人机不同,未来的自主武器或许可以自己选择并攻击目标。


    [​IMG]

    为了让机器人具有“道德观念”,研究人员可以在编程时写入一些特定指令,防止它们成为害群之马。图为福斯特?米勒“魔爪”机器人,上面配备了多种武器。但专家认为,一旦它具备了一定的自动化程度,就有可能反叛人类的指令,攻击错误的目标。​

    “这是我们去年提出的一系列新问题之一。”新南威尔士大学计算机科学与工程学院的人工智能教授托比?沃尔士(Toby Walsh)说道,“我们中的大多数人都认为,我们还没有能力制造有道德意识的机器人。最令人担忧的是,很多国家在最近这几年内就会将机器人用于实战当中,而我相信这些机器人都是没有道德观念的。”​

    为了让机器人具有“道德观念”,研究人员可以在编程时写入一些特定指令,防止它们成为害群之马。​

    例如,科幻小说作家艾萨克?阿西莫夫(Isaac Asimov)就曾写过一则名为《环舞》(Runaround)的短篇小说,其中提出了主宰机器人行为的三大定律。​

    “第一,机器人不得伤害人类,或因其不作为而使人类受到伤害。”​

    “第二,机器人必须遵守人类发出的指令,除非该指令违反了机器人第一定律。”​

    “第三,只要保护措施不违背第一或第二定律,机器人就必须尽可能地保护自己。”​

    虽然专家们认为这几条定律能帮助我们研发具有道德意识的机器人,但要在设计中运用这几条定律,最终还是要依靠机器人的创造者。​

    还有些人认为,我们的担心纯属多余。​

    [​IMG]

    《钢铁侠2》中的机器人(如图所示)也许和现实的差距并不大,但专家担心,一旦它们落入黑客手中,势必会在战场上引起严重的骚乱。专家们担心的不只是机器人设备本身,他们更担心黑客会侵入整个无人武器系统。​

    [​IMG]

    不管自主武器是否受人类控制,自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。图为MQ-9“死神”无人机,一旦受到黑客入侵,就可能对错误的目标发起攻击。​

    “首先,这样的武器目前还不存在,”新美国安全中心伦理自治项目的首席研究员和主管保罗?斯加瑞(Paul Scharre)说道,“大多数武器系统还没有达到这样的智能水平,即使是最先进的系统也只能通过纠正来帮助我们击中目标,而无法自行选择目标。”​

    斯加瑞还指出,即使我们可以在战争中使用自主武器,要生产出符合交战规定的武器,也不是件容易的事情。​

    “就算它们的操作是合法的,自主武器还会带来严重的道德和伦理问题。让一台机器掌握生死大权,这样做真的正确吗?”斯加瑞说道。​

    “另外,就算自主武器是合法的、且符合道德的,它们也可能非常危险。万一出现机器故障,或是敌军黑进了自主武器系统,都会造成非常严重的后果。”​

    目前还没有任何国家使用自主武器,但有些国家已经开始在战区部署无人运输工具了。​

    如果黑客侵入了自主武器的防御系统,就可能在战场上引发可怕的骚乱。​

    “研究人员正在努力加强数据链接的编码,让自主武器与控制者之间的连接更加安全。” 《简氏国际防务评论》(Jane's International Defence Review)的编辑休?威廉姆斯(Huw Williams)说道,“但无论这些编码完善与否,担心都仍然存在,而且数据链接还是有被破坏的危险。”​

    不管自主武器是否受人类控制,自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。​
     
正在加载...