人工智能不但学会了抄近路,而且要在2040年或发动核战争

2018-05-13

《自然》发表的一篇论文Vector-based navigation using grid-like representations in artificial agents报告称,一种最新研发而成的计算机程序具有类似哺乳动物一样的寻路能力。这篇论文同时也为理解人脑的运作提供了更多见解。

640.gif

矢量式寻路过程。

DeepMind

神经网络——以人脑为模型的计算机系统——能够执行大量令人惊叹的任务,如物体识别,但是在寻路方面的表现却不尽如人意。人脑的寻路功能依赖于一种名为网格细胞的专门化神经元,它们在空间内有规律地放电,帮助人类追踪自己的位置。


英国DeepMind的Andrea Banino、Dharshan Kumaran、Caswell Barry及同事没有在他们的计算机模型中设计网格样细胞,但是在培训完一个人工智能体在不熟悉的虚拟环境中寻路之后,发生了令人意想不到的现象。该智能体在迷宫中尝试寻找从A点到B点的路线时,竟然像哺乳动物那样开始走捷径,它的表现甚至超越了执行相同任务的人类专家。网格样细胞支撑该智能体取得如此亮眼的表现,表明它们的角色不限于提供一个类似于GPS的位置信号,还可以规划两地之间的直接路线。

640.webp.jpg

人工智能体学会走捷径。

Savelli & Knierim

关于网格细胞的研究十分广泛,它的发现者也因此而获得了2014年的诺贝尔生理学或医学奖,但是它们的计算功能一直令人难以捉摸。这项研究有助于解释网格细胞如何编码空间信息,并印证了这样一种观点——网格细胞在矢量寻路中发挥着至关重要的作用

640 (1).gif

网格细胞。


640.webp (1).jpg


兰德公司的一份新报告表明,人工智能到2040年有可能颠覆核威慑战略的基础。


该研究认为,虽然人工智能不可能创造“末日机器”,但人工智能对核安全的危害在于它鼓励人类去冒险。


冷战期间,“相互确保摧毁”通过树立“任何袭击会招致毁灭性的报复”的平衡原则,从而维持了超级大国之间的恐怖和平,可见“相互确保摧毁”是通过抑制两国升级到核战争的动机来鼓励战略稳定。


而新的兰德报告则指出,未来几十年人工智能有可能通过削弱“相互确保摧毁”来打破核战略平衡,技术进步会使得报复性核反击力量成为目标并被摧毁的可能性大大增加。


640.webp (2).jpg


研究人员表示,即使各国无意发起攻击,也可能会倾向于追求先发制人的能力,以此作为与竞争对手讨价还价的手段。这破坏了战略稳定,因为即使拥有这些能力的国家没有使用这些能力的意图,对手也无法对此加以确认。


“核战争与人工智能之间的联系并不新鲜,事实上,这两者之间有着错综复杂的历史,”兰德公司研究员爱德华·盖斯特(Edward Geist)说。“人工智能的早期发展,很大程度上是为了支持军事行动或考虑军事目标。”他说,这类工作的一个例子是1980年代的可生存适应性规划实验,该实验试图利用人工智能将侦察数据转化为核打击的目标。


640.webp (3).jpg


根据该报告,人工智能在少数情况下可以通过提高情报收集和分析的准确性,提高战略的稳定性。先进的监测技术、更好的解释对手的行动都可以减少战略误判,从而减少战争的意外升级。


研究人员说,考虑到未来的技术发展,最终人工智能系统虽然存在出错的可能,但比人类出错的可能性要低,因此长期来看还是趋于稳定的。


640.webp (4).jpg


“一些专家担心,对人工智能的依赖会导致新的灾难性错误,”兰德公司的安德鲁·洛恩(Andrew Lohn)说。“在技术成熟之前使用人工智能可能会令人承受很大压力,甚至是颠覆性的挑战。”因此在未来几十年保持战略稳定可能是极其困难的,所有的核大国都必须致力于限制核风险。

科技、人类与人们的观念如何影响未来全球的安全目前已引起了广泛关注,而兰德智库已为此组成了一支专门探讨《2040年的全球安全》课题的团队。24日晚,该团队成员在听众面前亮相,披露他们对人类未来的观察与探讨。这一课题的负责人即是兰德智库全球危机与安全中心主任帕拉斯利提(Andrew Parasiliti)。

帕拉斯利提表示,该团队所关注不是国安议题,他们的课题是跨行业、跨国界的,“专家们在构想今后20年的全球安全状况。”兰德智库的这支团队由跨学科的专家组成,他们当中既有核战略专家,又有经济学家与社会学家。兰德智库认为,只有这样一支研究团队才能更好地理解世界科技的飞速发展对人类社会安全的影响。

《2040的安全话题:人工智能、3D打印与速度带给人类的希望与危险》是《2040年全球安全》课题团队带给听众的题目:在未来的数十年内,由于新科技的兴起,如人工智能、3D打印等,会将风险带给人们与他们的国家,同时也将威胁到全球的安全。与此同时,加速的变化也对政策制定者的应变能力提出了挑战。

兰德智库的专家认为,今天的人工智能发展已到了令人吃惊的程度——机器人可具备学习与思考的能力,这会引发全球主要核大国间新一轮的武器竞赛,杀人机器人已不再是好莱坞大片的专利,智能机器人的出现或会打破现有的“核制约”,让人类做出灾难性的决策。

专家们表示,“人工智能如何影响核战的威胁” 即是兰德智库正在实施的特别研究项目,即《2040年的全球安全》中的一部份。参与这一课题研究的专家认为,自冷战时期起人们已开始担心,计算机本身的故障,或由于人类操作不当,地球上可能会发生核灾难。然而,随着科技的发展,人们今天对科技导致的核灾难的危险更现实。

兰德智库的工程师罗恩(Andrew Lohn)认为:“这绝非仅是一个电影的场景。如果我们不谨慎的话,一些看似简单的事情都会导致紧张,把人类引向危险境地。”罗恩在使用人工智能方面已取得了相当的经验,他曾使用人工智能为无人机导航、判断鲸鱼的需求,并曾使用人工智能预测NBA篮球比赛的结果。

人类一味追求快速,但人类是否能够适应得了一个更加快速的世界?3D打印给人类带来了哪些威胁等都是兰德智库《2040年的全球安全》项目团队要在今后解答的问题。

201802072327574488fbKFDL.yasuotu.gif


更多内容关注:顶呱呱生活体验馆


顶呱呱炫彩二维码201803031615.png


喜欢讨论交流的朋友可以加微信群:

微信图片_20180319153559.jpg


如遇问题请咨询

mmqrcode1451441534030.png

微信图片_20180413161049.jpg

图片_20180421214733.png




写下你的评论吧