阿尔法狗再进化,人工智能威胁论是时候提上日程

   2020-08-16 聪慧网sxxjymy50
核心提示:发表于: 2020年08月16日 21时39分47秒

    这两天,关于阿尔法狗再进化的消息引发了不少网友的关注。据媒体报道,伦敦当地时间10月18日(北京时间10月19日),DeepMind团队公布了最强版AlphaGo,代号AlphaGoZero。这款名为AlphaGoZero的系统可以通过自我对弈进行学习,它利用一种名为强化学习的技术,可以从零基础开始学习,在短短3天内,成为顶级高手。

    经过3天的训练后,这套系统已经可以击败AlphaGoLee,也就是去年击败韩国顶尖棋手李世石的那套系统,且比分高达100比0。经过40天训练后,它总计运行了大约2900万次自我对弈,得以击败AlphaGoMaster(今年早些时候击败世界冠军柯洁的系统),比分为89比11。DeepMind团队将关于AlphaGoZero的相关研究以论文的形式,发表在了《自然》杂志上。

    

    值得注意的是,虽然AlphaGoZero在几周的训练期间学会了一些关键概念,但该系统学习的方法与人类有所不同。自我学习能力的出现,对于人工智能和机器学习来说,是一个新的突破。“过去人们普遍认为机器学习是基于海量的大数据,但是从AlphaGoZero身上,我们发现算法比数据更重要。”AlphaGo项目的主要负责人戴维•席尔瓦说道。

    这一消息的发布引发了网友热烈的讨论,网友纷纷表示,连阿法狗都在努力,你有什么理由逃避。甚至,就连柯洁都回应称:一个纯净、纯粹自我学习的alphago是最强的...对于alphago的自我进步来讲...人类太多余了。

    

    阿尔法狗再进化有哪些积极意义?

    我们可以看到AlphaGoZero与它的前辈们相比,技术发展有了质的飞跃。AlphaGo此前的版本的学习,结合了数百万人类围棋专家的棋谱,以及强化学习的监督学习进行了自我训练。AlphaGoZero的能力则在这个基础上有了质的提升,最大的区别是,它不再需要人类数据,它一开始就没有接触过人类棋谱,研发团队只是让它自由随意地在棋盘上下棋,然后进行自我博弈。值得一提的是,AlphaGoZero还非常“低碳环保”,由于算法的提升和数据的减少,使得AlphaGoZero只用到了一台机器和4个TPU,与它前辈AlphaGo用到的48个TPU相比,极大地节省了资源,这是一个非常伟大的进步,是AlphaGoZero带来的第一个积极意义。

    但这仅仅只是很小的一点,AlphaGoZero的诞生还有更大的意义。DeepMind团队希望通过培养自主学习的能力,来解决更多其他领域目前无法解决的棘手问题。

    在这次《自然》杂志上发表的论文中,戴维•席尔瓦表示:在过去,机器学习未能得到广泛应用,主要原因之一就在于很多人类无法解决的领域中,也缺少大量的数据样本来让机器进行学习,例如医疗图像处理等。AlphaGoZero能够摆脱人类的依赖,不需要人类给出数据和样本,这为更广泛的行业应用提供了新的可能性。

    “AlphaGoZero是我们最强版本,它提升了很多。Zero提高了计算效率,并且没有使用到任何人类围棋数据,”DeepMind联合创始人兼CEO戴密斯•哈萨比斯说,“最终,我们想要利用它的算法突破,去帮助解决各种紧迫的现实世界问题,如蛋白质折叠或设计新材料。”

    “人工智能威胁论”是时候提上日程了

    但是,AlphaGoZero诞生的意义,远不止于此,也远不只是有美好的一面。有很多人对于AlphaGoZero的这种进化表示了深切的担忧。

    果壳网编辑、美国加州伯克利大学博士生@Ent_evo就是这其中之一,他专门针对这条新闻发表了一篇博文,在文中评论道:这对人类骄傲感是个很大的打击。当年AlphaGo好歹还学习了大量的人类经验,但是AlphaGoZero根本就不需要人类围棋棋手积攒了这么多年的历史,人类经验是好是坏,对AI而言完全无关,这是所有AI末世中最令人恐惧的一个场景。

    人类被人工智能打败并不会否认掉我们存在的意义,但如果那个第一根本不需要你,根本不在乎你,你做的任何事情都对它的追求没有影响。如果AI拿走了人类和现实的关联,让人类发现自己甚至已经无法影响自己的历史进程了,这一切会令人恐慌。随着AI证明自己在越来越多的领域不再需要人,一定会有人反过来无法接受自己不再被需要的事实。当一切创造都被接管的时候,大概剩下的也只有毁灭了。

    这不禁让人想起著名物理学家斯蒂芬•霍金在2017全球移动互联网大会(GMIC)发表的演讲。他表示,人工智能的崛起可能是人类文明的终结。

    霍金在会上表示,人工智能的威胁分短期和长期两种。短期威胁包括自动驾驶、智能性自主武器,以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。

    这已经不是霍金第一次提出“人工智能威胁论”。在今年3月,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止人工智能对人类带来的威胁进一步上升。

    慧聪安防网总结

    人工智能威胁论的提出由来已久,但是小编个人一直都不以为然。直到AlphaGoZero的出现,正如@Ent_evo所说,当人工智能不再需要人类,人类的一切对于人工智能来说都无关紧要的时候,那么人类一定会被逐渐边缘化,进而走向毁灭。不过,霍金先生也表示,虽然他对人工智能有各种担忧,但他对人工智能技术本身还是抱有乐观的态度。就像上文提到的那样,可以预见的是,在不久的将来,人工智能能够帮助人类完成很多人类无法企及的任务。人类到底是会被人工智能无限地帮助,还是无限地被边缘化,是一件不确定的事,因此,我们也不应该因噎废食,新的技术我们还是应该张开怀抱去迎接。

    

 
举报收藏 0打赏 0评论 0
 
更多>同类资讯
  • sxxjymy
    加关注0
  • 没有留下签名~~
推荐图文
推荐资讯
点击排行
网站首页  |  用户协议  |  关于我们  |  联系方式  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  浙ICP备16039256号-5  |  浙公网安备 33060302000814号