网络红歌网门户

AI革命,通往超级人工智能之路

人工智能爱好者社区 2018-09-09 07:20:28


作者:挖数  腾讯数据产品经理 & 段子手

个人微信公号:washu66


本文翻译自Tim Urban的《The AI Revolution: The Road to Superintelligence》,截止目前该文章在Facebook已有20万人分享,翻译的不好的地方请多多包涵哈 (๑•ᴗ•๑)

我们正处在一个跟人类在地球上诞生一样重大的变革的边缘 - Vernor Vinge

站在这个位置感觉怎么样?


站在这样一个位置,会让人感觉特别紧张,但实际上,站在那个位置,你是看不到右边陡峭的坡度的,所以实际上是这样的

这样看起来正常多了...

遥远的未来很快到来

想象如果你坐着时间机器回到1750年-一个没有电力供应,远距离通信只能靠大声喊叫或者向空中开炮的时代。你到了那里,绑架一个人,把他带到2015年,观察他对所有事情的反应。当他看到公路上穿行的汽车,人们用电话与位于海洋对岸的人聊天,用电视观看1000英里以外的足球赛或者一场演奏于50年前的音乐剧, 用摄像机实时记录生活的瞬间,用导航定位自己的位置,跟另一个国家的人们视频聊天,以及其他的各种无法想象的巫术,更不用说当你尝试跟他解释互联网,或者宇宙空间站,强子对撞机,或者核武器,广义相对论。

这种经验对他来说,估计不只是吓傻了这么简单,估计他会直接狗带(go die)。

有趣的事情来了,当他回到1750年,然后好奇心爆棚并且决定跟我们做一样的事情时,他会坐上时间机器,回到1500年并绑架一个人到1750年,给他演示所有科技。这个1500年的人估计会吓傻,但他不会狗带,因为虽然1500年跟1750年相差非常大,但比起1750年和2015年就是小巫见大巫了!这个1500年的家伙会学到一些新的物理学知识,会震惊于欧洲现在繁华的样子,会修正一下脑海中世界的版图。但观察周围的事物,包括交通、通信等,并不会让他狗带。

如果那个1750年的人想要获得跟我们一样的乐趣,那么他必须回到更遥远的年代,比如公元前12000年,在一个原始部落绑架一个人并带他到1750年,给他看高耸的教堂,航海的巨轮,给他展示各种收藏和发现,给他讲授各种观念比如“国家”、“经济”,估计他也会很快狗带!

然后这个公元前12000年的人也决定做同样的事情,于是他回到公元前24000年,绑架一个人并带他到公元前12000年,给他展示所有东西,这时他估计会挣脱开来,大声喊叫“你给我看这些干嘛,这到底有什么意义?”对于公元前12000年的人,如果想获得跟我们一样的乐趣,估计他要回到10万年前去绑架人,并给他展示火焰还有语言。

为了让过去穿越到现在的人,会被现代的科技惊吓到狗带,我们必须穿越到足够久远的过去,我们把一个足够让过去的人惊吓到狗带的科技级别称为“狗带级别”或者“狗带单位”。那么在狩猎时代,一个狗带单位大约是10万年,在农业革命时代,一个狗带单位大约是1万2千年,而到了后工业化时代,由于科技发展太过迅速,一个狗带单位仅仅是200多年。

人类发展速度的加快,被称为“加速回报定律。之所以存在这样的定律是因为更发达的社会相较欠发达社会有能力以更快的速度发展。19世纪的人类比15世纪的人类懂得更多并有更先进的技术,因此19世纪的人类发展得比15世纪更快并不奇怪。

缩小范围,这个定律也一样奏效。1985年有一部穿越电影叫《Back to the Future》,里边的男主角Michael J.Fox从1985年穿越回去1955年,他被当时人们奇怪的俚语,苏打水的价格,以及奇怪的音乐品味吓得措不及防,确实那是一个完全不一样的世界。但如果那部电影是在今天拍摄的,而1955年的过去变成1985年的话,那么电影会更加有趣,主角会从一个人手一部手机,人人习惯于在互联网沟通的时代,回到一个没有这一切的1985年,这种冲击会更加大。

根据“加速回报定律”,1985年到2015年的平均增长速度会高于1955年到1985年,因为前者是一个更发达的世界,比起上一个30年,最近30年有更多的改变。

增长变得更快,改变也变得越来越多,这对于我们的未来,预示着什么?

“加速回报定律”的提出者-Kurzweil认为,整个20世纪的增长幅度,在21世纪将仅用14年就足以达到,我们回想一下,到目前为止如智能手机的普及,互联网云计算等的发展,是不是比整个20世纪的科技发展还炫目?Kurzweil还认为,到2021年,发展程度将达到20世纪的2倍,也就是仅用14年的一半时间就达到20世纪的增长幅度,几十年后,可能仅需要1个月,就能达到20世纪的增长幅度。总而言之,根据“加速回报定律”,Kurzweil认为整个21世纪的发展程度将是20世纪的1000倍。

如果Kurzweil的预言是准确的,2030年的发展程度将足以让现在的我们狗带,就跟1750年那个家伙一样。

这不是科幻小说,这是许许多多比你更聪明比你更知识渊博的科学家所相信的,而如果你去回顾历史,你会发现这个预测是有迹可循的。

所以,当你听到我说“35年后世界将变得完全不一样”时,你还会一脸懵逼吗?以下是我们做出这样预测的3个原因:

1)当谈及历史发展时,我们通常认为它是一条笔直向上的线。

当我们想象未来30年,我们会把过去30年的发展作为一个标准,当我们想象21世纪的发展,我们同样会把整个20世纪的发展,在2000年开始往上加。这种错误跟1750年那个家伙打算把1500年的人带到他那个年代,同时期望能让他狗带的想法是一样的。

我们习惯于认为未来的发展是加法,实际上它是乘法。如果有人足够聪明,聪明到抛弃过去30年的发展,而根据现今发展的速度去计算未来30年的发展,那么结果会更准确,但这样做还不够,更准确的结果,应该是将现金的发展速度,乘以一个未来系数。

2)历史的发展,往往沿着一个S形的轨迹。

首先,即使是十分陡峭的曲线,如果你只是随意一瞥,也像是一条直线,同样道理,如果你盯着一个大圆圈的一段去看,它也像是一条直线。第二,指数级别的发展曲线并不是平滑的,而是沿着S形的轨迹。

每一次全球范围的科技进步,都会创造一个S形的轨迹,这个S形轨迹会经历以下3个阶段:

1、缓慢增长(指数级增长最初的阶段);

2、爆发性增长(指数级增长的中期);

3、水平增长(指数级增长的后期,或称成熟期)。

如果你看回最近一次S形发展轨迹,那么1995到2007年是这个轨迹的第2部分,也就是爆发性增长,微软、谷歌和Facebook逐渐进入大众视野,社交网络诞生,智能手机开始普及。而后的2008到2015年是这个轨迹的第3部分,没有太多的科技突破进入大众视野,很多人会因此而认为未来也会这样平缓地发展,实际上他们只看到冰山的一角,因为一个更大更陡峭的S形轨迹已蓄势待发。

3)我们的过往经验让我们成了因循守旧的老古板。

我们喜欢基于自己的过往经验,去判断未来的发展,并认为这是合乎逻辑的,而实际上,是我们的想象力限制了我们的想象力。人类目前所积累的知识,并不足以用来准确预估未来的发展。当我们听到一个关于未来的说法与我们的所知相悖时,我们会本能地认为他在吹牛逼。但如果我告诉你,下面的文章会告诉你你将活到150岁、250岁,甚至长生不老,你的本能会告诉你“这家伙应该是活在《西游记》吧,妄想吃唐僧肉,人类历史告诉我们,死亡是不可避免的。”是的,过去确实没有人能够永生,但是,过去也没有人见过飞机在天上飞吧?

事实是,如果我们抛弃历史经验,转而让理性思维带领我们,我们应该认为未来会有大大的变化,超越人类所能想象的变化,与此同时,理性思维也告诉我们,在地球上,如果人类以越来越快的速度向前发展,在某个时间点,他们会到达一个阶段,一个改变了生命的存在形式,一个人类是否还是人类的阶段,就像进化论所揭示的所有物种都在进化,直到有一天进化出了人类,而人类彻底改变了地球,改变了地球上所有生物的存在形式。如果你花些时间了解一下当今前沿的科学技术,你会发现,已经有很多迹象表明人类已经悄悄地迈开了这一步。

超级人工智能之路

1. 什么是AI?

如果你跟我一样,过去一直认为人工智能(AI)只是一个科幻的概念,但最近一直听到一些业界大牛频频提起这个词汇,而你对AI的概念却十分模糊。

有3个原因让大多数人对AI这个概念感到模糊:

1)我们经常把AI和科幻电影联想到一起。

《星球大战》、《终结者》这些电影,以及电影里机器人的角色,让我们觉得AI是一个虚构的概念。

2)AI的概念广泛。

从你手机上的计算器,Siri,到击败柯洁的AlphaGO,到自动驾驶汽车,以及种种尚未推出市场但一经推出就将改变世界的东西,都是AI,这让人理解无能。

3)在我们的生活中,AI无处不在,但我们常常不认为它是AI。

John McCarthy在1956年发明了“Artificial Intelligence(人工智能)”这个词,但他经常跟人抱怨,“一旦AI开始出现,就没人再叫它AI了”因为这个现象,AI让人感觉像一个神话,而不是即将到来的现实,或者说AI就像一个非常流行的概念,但这个概念永远不会实现。Ray Kurzweil说他常常听到人们说AI在1980年就已经消亡了,他认为那些人跟认为互联网会在2000年的互联网泡沫中消亡的人是同一类人。

2. 让我们来重新梳理一下什么是AI。

首先,别再把AI跟人形机器人联想到一块,人形机器人只是AI的载体,而AI是嵌在机器人里的芯片,或者说一段算法。

AI是大脑,而机器人是它的躯体,如果它需要一个躯体的话。举例来说,Siri背后的软件和数据才是AI,至于Siri的甜美人声,只是AI拟人化的一个举动,这跟机器人一点关系都没有。

然后,你可能偶尔听到一个词“奇点”。

在数学上,“奇点”被用于描绘一种渐进式的状态,在这种状态里面普通的规则不再适用,这种数学概念在物理上的现象比如说无限小,密度无限大的黑洞,或者宇宙大爆炸之间的那个时间段。重复一遍,“奇点”是一种普通规则无法适用的状态。1993年,Vernor Vinge写了一篇著名的论文,论文中它用“奇点”来形容未来科技超过人类智慧时,现有的规则和逻辑已不再适用的那个时刻。Ray Kurzweil又添油加醋了一番,认为“奇点”是当“加速回报定律”达到一定的速度时,科技大爆炸,从此人类生活在一个全新的世界。

最后,虽然AI是一个广泛的概念,但我们可以根据AI的发展阶段,来对它进行分类。

3. AI有以下3个重要的发展阶段:

1)弱人工智能阶段(ANI)

弱人工智能指一些专注于某个领域的AI,比如能在围棋上击败柯洁的AlphaGo,但它也就只能专攻围棋,如果你问它其他问题,它只会一脸懵逼。

2)强人工智能阶段(AGI)

这个阶段也可以称为-人类级别AI,这个阶段的AI,可以在所有领域与人类媲美,比如它既可以在围棋领域击败柯洁,可以在短跑领域跑过博尔特,也可以在中国高考并成为省状元。创造一个AGI会比创造一个ANI难得多,著名教育心理学教授Linda Gottfredson把智慧描述为“一种非常综合的能力,包括归因能力、计划能力、解决问题能力、抽象思维能力、理解复杂想法的能力、快速学习能力以及从经验中学习的能力等”,AGI可以跟人类一样轻易地做到这些。

3)超人工智能阶段(ASI)

牛津大学著名哲学家和AI思考者Nick Bostrom把超人工智能(ASI)定义为“一种在任何领域都甩人类最聪明大脑几条街,包括科学创造力、通识,以及社交能力”。从比人类聪明一点点的电脑,到比人类聪明万亿倍的电脑都叫ASI。ASI的假设,让AI这个词成了烫手山芋,也让“永生”、“灭绝”等词语频繁地被提起。

到目前为止,人类已经在很多领域创造除了弱人工智能(ANI),而AI的革命之路将会始于ANI,经过AGI,最终达到ASI,人类不一定能亲眼目睹一路的风景,但不管怎样,一切的一切都将改写。

让我们一起了解下世界上顶尖科学家们是怎么看待这一切,以及他们为什么认为AGI甚至ASI将很快到来:

4. 一个在弱人工智能(ANI)的路上奔跑的世界

弱人工智能(ANI)是一种在某些领域可以与人类媲美甚至超越人类的机器智能,以下是一些例子:

汽车就是一个遍布ANI的系统,从遍布大街的自动挡汽车,到谷歌研发的自动驾驶汽车,这些都是弱人工智能(ANI); 


手机就是一个小型的ANI工厂。当你用手机来导航,或者收听网易云音乐的个性化推荐歌曲,或者跟你的Siri打情骂俏,这些都是在跟ANI打交道; 


垃圾邮件过滤器是一种典型的ANI。它会学习你的习惯和偏好,最终在邮件海中准确识别出哪些对于你来说是垃圾邮件; 


当你在淘宝上购物时,你会收到一些商品推荐信息,显示跟你购买了同样东西的人还购买了什么,你很可能会受到影响并买多一件,这也是ANI;


谷歌翻译、科大讯飞的语音识别,以及转载了这些算法的各种APP,让你可以录入一段中文语音就立刻翻译出一段英文给你,这些都是ANI; 


世界上最好的围棋手、国际象棋手,以及各种棋类的大师,现在都是ANI系统; 


谷歌搜索也是一种大型的ANI系统,集成了非常复杂的算法用于页面排序,以及决定给你展示哪些内容和广告,Facebook的Newsfeed同理; 


除了消费领域,在军事领域、制造领域、金融领域,ANI都有广泛的应用,比如现在整个美国一半的股票交易行为,都是高频交易算法在操纵,比如医生现在很多诊断,都有ANI的参与。

ANI系统目前还不怎么会威胁到人类,最坏的情况,也就是一个被写入坏程序的ANI,引发了整个国家电力网络的瘫痪,或者引发一场金融危机,比如2010年股市的闪崩,就是一个ANI系统对一种未预知到的情况作出了错误的反馈而导致的,最终造成数十亿美元的损失。

虽然ANI不至于引发人类的生存危机,但我们应该看到,这个越来越复杂的生态,已经开始在酝酿一场席卷全人类的飓风。每一个弱人工智能系统(ANI)都是一块砖头,他们最终的目的,是砌成一座强人工智能(AGI),甚至超人工智能(ASI),就像关于“奇点”的畅销书作者Aaron Saenz所说,“这些ANI,就像散布在地球形成初期海洋里的氨基酸一样,正酝酿着生命的伟大爆发”。

5. 通往强人工智能(AGI)之路

为什么这条路如此困难

当尝试去创造一个跟人类一样聪明的电脑时,我们开始意识到,大脑的复杂程度远远超乎我们想象。从0到1创造一个人类大脑的难度,远远超过建造一栋摩天大楼,或者把人类送上外太空,或者搞懂宇宙大爆炸。人类大脑是我们已知的宇宙中最复杂的事物。

有趣的是,你根本不知道创造一个强人工智能(AGI)最困难的部分在哪里。造出一个能在几微秒内算出2个十位数字相乘结果的电脑,非常容易,造出一个面对一只狗,能准确说出这是狗而不是猫的电脑,非常困难!造出一个能在棋类运动打败人类的AI,已经做到了,造出一个能读懂6岁儿童小人书的AI,谷歌已经在这上面花了数十亿美元。我们人类认为困难的部分,比如计算、金融量化策略、翻译等,对于AI来说非常简单,相反人类认为简单的事情,比如视觉、情感、移动、认知等,对于AI来说非常困难。就像计算机科学家Donald Knuth的描述,“AI已经能够胜任很多人类需要思考才能办到的事情,但那些人类不需要思考也能办到的事情,AI表示臣妾做不到啊!”

你没有意识到的是,那些AI很难做到而人类能够轻易完成的技能,实际上已经如同最优化的算法一样,装载在人类和大部分的动物身上了,这些算法经过几百万年的进化训练,已经调试到最优的状态,人类自出生就能获得。比如对人类来说不需要思考的伸手抓物,实际上涉及到非常多系统的相互协调,首先是你肩膀和腰的肌肉、筋腱、骨头的轮动,然后你的手腕经过一系列的物理和化学作用,再依据眼睛的目标定位,最终伸出手到一定的距离抓住物体。这套动作对你来说毫不费力,是因为你的大脑已经预装了一套完美的软件。同样的道理,一些网站注册的验证程序对于人类来说毫不费力,但对于自动化程序来说,想要识别这些验证码是一件非常困难的事情。

另一方面来说,大数相乘、下棋等,人类并没有进化出相应的技能,因此对于电脑来说并不需要很多训练就可以击败人类。同时对于人类来说,你更愿意造出一种可以做大数相乘的电脑,来节省人类运算的时间,还是造出一种把手写体的“傻逼”放在它面前,它可以立刻识别出来的电脑?

以下是一个有趣的例子,不管是人类还是电脑,都可以很快认出这是一个有2种色调交替的长方形:

如果你将图形扭转一下...

你还是可以很快认出这是一个由各种半透明圆筒、矩形以及三维图形组成的本质上还是长方形的物体,但电脑却识别不出来。你的大脑在识别的瞬间,已经做了一堆深浅、形状混合、空间想象以及光照的识别运算。

同样看以下的照片,电脑会认为这是一张二维的,由黑白灰组成的画面,但你会立刻认出这是一张3D的黑色的陨石照片。

即使能识别出以上图片,想要跟人类匹敌还是远远不够,强人工智能(AGI)还必须跟人类一样,能识别出微表情,不管是喜怒哀乐,还是满足委屈嫉妒等,甚至能看完电影并说得出《盗梦空间》比《富春山居图》好一万倍。

艰巨...

6. 所以我们怎样才能到达强人工智能阶段(AGI)?

第一把钥匙:增加更多的算力

想让强人工智能(AGI)成为可能,第一件需要做的事是让计算机拥有更多的算力,要让AI跟人一样聪明,必须让计算机的计算速度和容量跟得上人类大脑。

要量化大脑容量,有一种方式是看大脑每秒的计算量(CPS),如果把大脑每个部位的最大算力加到一起,我们就能得到一个数字。

Ray Kurzweil曾经做过一个估算,他先计算出大脑一个部位的算力,再根据这个部位占整个大脑重量的比例去反推整个大脑的算力,经过反复的演算和验证,最后得出大脑的算力是 10的16次方

截止目前,世界上算力最大的超级计算机是中国的天河2号,它的算力已经超过 10的16次方 ,但它的体积堪比恐龙,占地720平方米,运行起来的功率达到24兆瓦(大脑只有20瓦),耗资3.9亿美元,根本无法大规模普及。

Kurzweil建议可以从购买力角度推算强人工智能(AGI)什么时候到来,看1千美金可以购买多少算力(CPS),如果1千美金可以买到 10的16次方 的算力,说明AGI离我们不远了。

摩尔定律揭示,全球的最大算力保持每2年翻一倍的速度增长,如果把它与Kurzweil的理论结合起来,我们可以画出一条这样一条轨迹:

从上图可以看到,我们价值1千美金的电脑刚刚能与昆虫的大脑匹敌,而仅仅是人类大脑的千分之一,你可能会开始冷笑,嘿嘿,你个渣渣,但当你看到1985年时,电脑还只是人类大脑的万亿分之一,10年后的1995年,是人类大脑的十亿分之一,2005年是百万分之一,再看回现在的千分之一,你可能会收起你的冷笑,而到2025年左右,人类或许可以去菜市场买菜,顺便拿零钱捎回一个跟人脑一样聪明的电脑。

从上文可以知道,在硬件层面,人类已经足够构建一个强人工智能(AGI),比如中国的天河2号,但单独的堆算力,还不足以构建一个AGI,我们的下一步是,如何把人类的智慧,装载到这一堆算力上面?

第二把钥匙:变得更聪明

问题开始变得有趣...事实是,没有人100%掌握让电脑变得更聪明的办法,我们还在苦苦研发能够准确识别阿猫阿狗,能够准确识别潦草笔迹写的“傻逼”二字的电脑,而这一路上,人类也总结出了一些方法,这些方法中或许有一个,能够帮助人类创造出AGI,以下是业界公认的最有希望的3个办法:

1)复制人类大脑

想象读书时班里的学霸,永远如天之骄子一样每次考试都拿第一,而你不管再怎么努力,还是只能给学霸提鞋,于是你猛一拍桌子,“老子不干了,下次考试直接把学霸卷子拿过来抄”。方法虽然粗暴,但着实有效,科学家苦苦挣扎于从0构建一个超级复杂的大脑,但实际上,自己脖子上就顶着一个完美的参照物。

科学界一直在对大脑进行逆向工程,乐观估计到2030年,我们就可以完全解构人类大脑。一旦我们知道大脑的所有秘密,我们就可以直接复制粘贴出一个AGI。实际上,在模拟人脑上我们已经有了应用,比如人工神经网络。我们用晶体管构建出一个人工神经元网络,这些神经元互相连接,有输入也有输出,一开始它跟婴儿大脑一样什么都不懂,但它会学习,假如我们想让它学会识别一个手写笔迹,最初,它会随机映射一些答案,一旦映射到正确的答案,相应的神经元连接就会得到更高的权重,当映射到错误的答案,相应的神经元连接的权重会被削减,经过一轮又一轮的训练,这个人工神经网络会被优化到最佳状态,人类大脑的学习过程跟这个类似,但更复杂。随着对大脑研究的深入,人类将会发现更多大脑运作的原理,从而用来构建AGI。

对于复制大脑,业界有一种更巧妙的方法叫“全脑仿真”,是把大脑片成片片薄片,然后挨个扫描,然后用软件模拟一个精确的3D模型,最后放到一台强大的计算机上运行。理论上,我们能够完全复制这个被切片大脑的所有记忆,假如这个大脑在生前属于爱因斯坦,那么当电脑上的仿真大脑醒过来时,它也会认为自己是爱因斯坦。

我们离构建这样一个仿真大脑还有多远?到目前为止,我们仅能仿真1毫米长的扁形虫(一种寄生虫)的大脑,这种寄生虫的大脑有302个神经元,而人类有1000亿个神经元。先别绝望,记住计算机的算力是指数级增长的,很快我们就可以仿真蚂蚁的大脑,然后是老鼠,接下来是人类...

2)复制进化过程

如果复制学霸的大脑非常困难,我们可以复制他学习的方式,也就是他大脑进化的方式。

人类的进化过程本身已证明,创造一个人脑是可能的,而如果对于我们来说仿真一个人脑太过困难,我们可以仿真进化过程。事实是,仿真大脑这个计划,本身就像对着一只小鸟仿真一只飞机,最终只会失败,因为真正成功的机器,从来不是模仿生物体而来。

那么,我们如何通过复制进化过程最终创造出强人工智能(AGI)?通过了解“遗传算法”,我们发现进化本质上是一种不断循环的行动&评估过程,这里的行动指生物的生存,评估指这种生物是否能一直生殖而繁衍下去,再想深入一些,其实人类最初只是一群被灌输了“生殖”指令的弱人工智能(ANI),在生殖过程中不断地进化,最终成长成现在的AGI。我们可以让一群电脑一起battle,胜利那个可以拥有“交配权”,他可以选择与另外一台电脑合并代码,最终成为一台新的电脑,而惜败那些电脑,则让他们销毁。经过一次又一次循环往复的battle,这种自然选择会诞生出越来越优秀的电脑,最终诞生出AGI。

这种方式看似有戏,但是进化过程需要耗费上亿年,而我们并没有这份耐心。

不过我们可以通过一些手段来加速这个进化,1、人类进化是随机的,大部分的基因突变都是不好的,而我们可以控制电脑往好的方向进化;2、人类进化是漫无目的的,有些时候更高的智慧还会被环境所排挤(因为耗费太多能量),而我们可以把电脑的进化目的设定为提高智慧;3、由于有限的资源,在进化出更高的智慧之前,人类需要不断优化细胞消耗能量的方式,而我们可以提供给电脑无限的电能。

毫无疑问我们可以让电脑进化的过程远远快过人类,但我们还是不太有自信可以在有生之年造出AGI。

3)让电脑替代人类,去推进这一切

很多时候,科学家会感到绝望并大声喊“去TMD的,让电脑来搞定这一切吧”,这或许是最有效的方式。

我们可以给一台计算机赋予2项指令,1个是研究AI,1个是把研究成果用于优化自身,让它自己给自己迭代升级,放手让计算机自己来推动自己的发展,这或许是一种靠谱的方式。

这一切将很快到来

基于以下2个原因,我们相信强人工智能(AGI)将很快来临:

1)指数级的增长方式,将让现在看起来如蜗牛爬行般的科技增长速度突然加快。

2)在软件领域,我们的进展看起来十分缓慢,但当某一个领域被攻破时,发展速度将立刻被改变(就像当年地心说流行时,人类一直无法搞清楚宇宙是如何运作的,但当日心说取代地心说时,所有事情开始豁然开朗)。所以,即使现在电脑距离人类还有一千倍的距离,但或许只要攻破了某个领域,这一千倍的距离立刻触手可得!

从强人工智能(AGI)到超人工智能(ASI)

当强人工智能(AGI)来临时,电脑已经拥有了与人脑匹敌的智慧,此时,仅有一小撮人类与电脑和平共处。

或者连这一小撮人类都不需要。

即电脑仅与人脑的智慧在同一水平线上,电脑还是比人脑占据优势,因为:

硬件

1)速度:

人脑神经元的工作频率最高可达200赫兹,而今天的微处理器能达到2千兆赫兹,是人脑的1千万倍;人脑神经元间传输速度大约在120米/秒,而电脑的传输速度理论上可以达到光速;

2)体积和存储:

人脑被限制在人类的颅骨里,不能变得更大,同时人脑与人脑之间的传输效率非常低,而电脑可以以任何体积存在,可以投入更多的硬件资源,有更高的随机存储器(RAM),也有更高的永久存储器(ROM),它们的容量和精度都远远超过人类;

3)可靠性和耐力:

电脑不只是存储精度优于人类,电脑的晶体管比人脑的神经元更不容易衰退,且晶体管是可修补或是替换的。人脑非常容易疲劳,而电脑是不知疲惫的,能够每周7天每天24小时地工作。

软件

1)电脑软件可编辑、可升级,并且有更广的应用范围:

与人脑不同,电脑软件可优化可升级,经过升级,电脑可以迅速在某些领域超过人脑。即使人类的“视觉软件”非常发达,但某些领域比如对复杂工程构造的解析会显得低效,电脑可以在这方面轻易超过人类。

2)协作能力:

人类通过大规模协作,在生存战争上击败其他物种。从语言的诞生,部落的聚集、到写作和印刷的发明,到现在发展出了互联网,人类在协作方面的智慧,是人类大踏步甩开其他物种的主要原因。而电脑可以比人类做得更好!通过互联网,AI可以随时随地立刻把数据同步到全球每一个角落的电脑,而且AI不像人类一样每个人有自己不同的目标、观点和兴趣,不需要高成本的动员,所有AI可以仅专注于一个目标。

在AI自我升级的道路上,实际上并不存在一个跟人类同一水平线上这么一个阶段,这只是人类的自我幻想,从上文得知,即使AI的智慧发展到跟人类一样,它在其他方面也优于人类,在通往ASI的道路上,AI不会为人类停留一分一秒。

人类的脑海里,有这么2个根深蒂固的预设:1、其他生物的智慧远远低于人类;2、我们认为世上最聪明的人与最蠢的人相较如下图:

当AI加速发展时,我们发现它开始变得比动物更聪明,然后它开始达到跟世上最蠢的人一个水平线,Nick Bostrom把它称为“农村傻根”,这时我们会惊讶但带着点嘲笑说“看,他跟一个傻瓜一样,真可爱”。我们没有预料的是,在智慧发展的光谱里,所有人类,从傻根到爱因斯坦,他们之间的差距实际上在很小的范围,当AI跟傻根一样聪明时,转眼间它会变成爱因斯坦,然后绝尘而去,留下一脸懵逼的我们。


然后呢?

智慧大爆炸

希望这篇文章没有吓坏你,但我想提醒你的是,这里说的每一个事实每一个预测,都来自现实中真正的科学家,并不是瞎ji巴讲。

一旦到了AGI阶段,所有之前不具备自我升级的系统,现在都足够聪明到可以进行自我升级。

于是这里有了一个新的概念“递归式自我升级”,它的运作方式是:

假设AI的目标被设定为通过自我升级,提升智慧,当它发展到“农村傻根”时,可能经历了漫长的一段时间,但你会看到在一瞬间,它就变得跟爱因斯坦一样聪明,因为此时它的发展速度在指数级增长。随着发展步伐的加快,AGI到ASI也仅是一眨眼的时间。这就是智慧大爆炸,也是“加速回报定律”的终极形式。

关于何时到达AGI,目前有很多争论,其中的中位数是2040年,距离现在只有短短20几年,更让人惊讶的是,大部分科学家认为AGI到ASI会非常迅速,它会像这样:

终于,AI发展到了强人工智能阶段(AGI),此时电脑对身边世界的认知如同4岁的小孩一样,虽稚嫩但已经有基本的了解,但仅1个小时之内,电脑突然就掌握了广义相对论和量子力学,而这些东西人类还未完全掌握,然后又是短短的90分钟,电脑摇身一变成为比人类聪明几万倍的ASI。

一旦到ASI阶段,所有一切已超越了人类的认知,在我们的世界里,只有IQ 130的聪明人和IQ 85的傻瓜,从没想过会有IQ 12952的怪物。

人类之所以能支配地球,因为遵循一条简单的法则:智慧就是力量,而当我们亲手创造的电脑达到了ASI,它将成为地球历史上力量最大的事物,所有生物,包括人类,将处于它的奴役之下,而这将会发生在短短的几十年后。

既然渺小如尘埃的人类大脑能够发明wifi这类事物,那么比人类聪明万亿倍的电脑,将能轻松控制地球上每个角落的每个事物,精确到原子级别。所有我们能想到的只有上帝才能做的事情,对于ASI来说都只是抬抬小指头的事。返老还童、治愈癌症、控制天气都变成可能,而面对这样一个万能的上帝,一个终极问题将会摆在我们面前

他会是一个好上帝吗?



=THE END=