不看不知道 原来你对人工智能的误解这么多,是该醒醒了~

童话里的故事都是骗人的,电影里的故事其实也一样,特别是科幻电影。

提到人工智能,对大多数人来说,知识的印记来自科幻书籍或影视作品。特别是好莱坞大片儿给我们的灌输。比如早年斯皮尔伯格的电影《人工智能》、后来感人至深的《机器人瓦力》,再到最近两年的《超能查派》。

无一例外,科幻影片造成很多同学,对人工智能最普遍的误解,那就是机器人都很聪明,很轻易就能拥有自主意识。甚至天然的以为机器人能够像宠物狗一样,会与人类产生情感共鸣。在这颗孤独的星球上,这也正是很多人欢心期待人工智能早日实现的原因。

对于脑洞大开的高能人群,随之而来的还伴有恐惧,会担心未来有一天机器人终将要发动一场Revolution。甚至比尔·盖茨、埃隆·马斯克这样的科技界领袖,也纷纷警告过人工智能对人类未来的威胁。正像《机械公敌》里面上演的情节,超级电脑利用阿西莫夫“机器人三定律”的逻辑漏洞,为保护人类未来的整体利益,却要开始清洗部分人类。

这些可能发生吗?非常有可能,但在目前的现实世界,只能说你真的想多了!我们离真正的人工作智能还差之千里(这里指的是技术差距,而非实现时间)。我们现在科技领域所谓的人工智能,绝大多数仍处在弱人工智能Artificial Narrow Intelligence (ANI)阶段。

这个阶段的人工智能,本质上跟你手中的计算器或办公室的电脑并无区别,都是按照一定的编程逻辑在执行指令。它们只是通过程序设定模仿人类的一部分行为方式。特别在今天有大数据支持的情况下。从某一个维度上讲,数据库越扩大,机器就会越“见多识广”,自然更加的“聪明”。这正是一些汽车厂商实现自动驾驶的方法,用海量的交通数据作为自动驾驶的判断依据。

但相信很多人如我一样,对科幻电影“入戏”太深,并不认可这样的人工智能。机器没有自主意识,犹如一个人失去了灵魂,只会按部就班的听令做事,那么充其量只是人们开发了一些算法和代码,然后让硬件根据这些算法来运行而已。

就连大名鼎鼎的波士顿动力(Boston Dynamics)最新发明的机器狗Spot Mini,你也只能说它是一台拥有四肢、身上布满传感器的移动电脑。固然他们在动态平衡算法、对环境的感知能力等方面取得了长足进步。但它并没有真正实现自主学习能力,最终也仅是被编程的高级工具。

所以像谷歌的无人驾驶车、微软小冰,还有之前大名鼎鼎的深蓝,甚至是我们日常使用的智能手机,这些生活中已在广泛存在的智能,只能被称为拟智能。就是不需要通过学习得来的智能。他们有很庞大的数据库支持,有很强的运算能力,但走的还是传统老路,没有自主学习能力,当然就不会产生自我意识。

图灵法则: 机器人≠人工智能

那么让机器产生自我意识很难吗,有没有评判标准?在谈图灵法则之前,还是先说很多人的一个理解偏差。人工智能其实是个很宽泛的话题,其本质是研究如何使计算机去实现以往只有人类才能做的智能工作。所以千万不要把机器人和人工智能混为一谈了。

如果把人工智能比喻为人类的大脑,机器人只是人工智能众多的承载“身体”之一。像语音识别、视觉感知、处理决策,或现在流行的自然语言交互,其实都可算入ANI弱人工智能。所以不要一提及人工智能就想到机器人。同理,也不是所有机器人都实现了人工智能。起码目前在这世界上,公开宣称通过图灵测试的只有2014年来自俄罗斯的一部机器人。

图灵测试是什么?其主旨是在5分钟时间内的开放性对话中,有1/3的测试者分不清是在和人还是在和机器交流时,机械就算通过了人工智能测试。以当今科技的发展来看,作为对机器是否拥有人工智能的一个评判标准,图灵法则的测试标准和测试内容都不够严谨。但目前世界上通过的测试者依然寥寥。(如果对图灵测试感兴趣,建议大家可以脑补另一部电影《机械姬》)

在这里就可以看出机器要产生自我意识会有多难,而人类的大脑又是多么不可思议、难以复制的存在!引用知名网站Wait But Why中一篇有关人工智能的神作的说法:

“一些人类认为困难的事情,像微积分、金融市场策略、语言翻译等,对于计算机来说都太简单了;而人类觉得容易的事情,像视觉、动作、移动、感知,对计算机来说却太难了。”

这就是莫拉维克悖论: 人工智能实现人类的高阶智慧能力只需要非常少的计算力,比如像成人一样下棋,做运算推理,但是如果让它做一些一岁小孩子的技能,也就是一些无意识的技能,比如感知能力、移动能力和直觉,却需要极大的运算能力。

理论上,通过模仿人脑的物理、化学和电子结构,计算机是可以模拟人脑的。可即使不谈我们还不了解人脑神经元和脑细胞工作的原理,仅仅从计算机的能力角度来说,人类也还没有如此足够强大的计算机。在2015年底,经过长达十年的尝试研究后,人类才首次成功用计算机真实模拟了一个含有207种亚型、共计约31000个神经元的大鼠神经网络。而人脑中的神经元数量是1000亿个!

强人工智能时代终将到来?

是不是看到现实中的人工智能进展比较失望,但我想告诉你,人类其实已经迈入了快速发展的轨道。最根本的原因是,以前实现人工智能的方式都是基于逻辑推理,而现在深度学习技术和庞大的人工神经网络,让一切都改变了。

作为深度学习领域的“教父”级人物,杰弗里·辛顿(Geoffrey Hinton)最近表示,神经网络正在向大脑靠近。此前看似痴人说梦的机器自己学习,无需编程介入,已经在神经网络上能够实现了。

同时辛顿透露AlphaGo已经拥有了直觉。这是因为围棋和国际象棋非常不同。围棋拥有无穷无尽的变化和可能性,让棋手依靠的并不是单纯计算能力,还要依托人类的直觉。就是在观察棋盘后,感觉下在这里是对的,但棋手也说不出为什么,只是凭的一种感觉。现在AlphaGo已有了这样的觉醒。这就是实现递归自我改进的神经网络和之前以逻辑运算为基础的人工智能的巨大差异。

显然通过这样不断的自主学习和进化,未来与人类一样聪明度的强人工智能Artificial General Intelligence (AGI)是一定能够实现的。不论思考、计划、解决问题、抽象思维还理解复杂的概念、快速学习、从总结经验中学习……强人工智能做任何人类的脑力活动。根据一份调研报告显示,很多科学家预测强人工智能大约会在2040年左右出现。

那么再回头来看人工智能威胁论,就不是危言耸听了。未来人类会被机器彻底统治吗?我想是大有可能的。加速回报定律(Law of Accelerating Returns)告诉我们,人类从石器时代、青铜时代、农业时代、工业时代一路来到现在的信息时代,经历的更迭时间总是跳跃式的越来越短。这是因为科技基础在一步步变强,催生颠覆性技术革新的时间就越来越短。

像上面所提及的人工神经网络已经在依靠自我改进,一旦达到强人工智能水平。能够自我学习的机器将是非常可怕,会不断实现跳跃式的进步。那么就会出现比人类更聪明的人工智能,也就是超级人工智能。凭借几何级的进化能力,那将是人类自己制造出的“上帝”! 届时人类的智慧和境界,将根本看不懂这位被自己造出的“上帝”。所以人类的最终结局,或许只取决于这位“上帝”是否足够仁慈。