大同酷讯网特价机票查询╥︼⒗

&p&早在十年前,我曾经为了学分,恬不知耻的选择了一些文史类选修课程。那时候我在上《中国近代文学史》,老师花费了两个礼拜和我们讲述了四位著名作家的生平,尤其是他们的婚姻部分。&/p&&p&第一个是郭沫若。老师说这位文学大师一生有三位妻子,一个情人,然而他却毫无责任感可言,为了自己的兴趣和事业,对这些女人始乱终弃,甚至还把纯粹出于私心的别离描写成“为了革命的牺牲”,来衬托自己的伟大。最后这四个人中两人上吊自杀,两人对他终生怀恨,甚至他的十几位子女中也有许多拒绝认他做父亲。郭沫若晚年孤独一人,沉溺于花大把的时间抄写自己死去儿子的日记,可谓凄凉至极。&/p&&p&老师在讲这个故事的时候,语调是冷而不带感情的。&/p&&p&第二个是老舍。老师讲起他时花费的篇幅颇长。老舍年轻时家境贫困,一位刘姓善人资助了这对孤儿寡母,甚至送老舍出海读书,而老舍却在这时爱上了刘大善人的女儿。可惜等他学成归来,这位大善人已经散尽财凭,剃度出家后去世了。他的女儿也成因为家道中落,成了最下等的暗娼。这个没有故事的故事最后成了老舍心里舍不去的痛,他写下《无题》和《微神》两篇小说,纪念自己的初恋,并一直到三十四岁才通过朋友介绍成婚。&/p&&p&他的妻子也是新青年,也从事文化工作,在困难时期全力支持自己的夫君。照理说这种关系也算非常理想了,但老舍对婚姻却始终缺少热情,仅有的寥寥几篇写给妻子的文章里,只见出于情理的愧疚,不见一点内心深处的波澜。在西南联大时他还曾经遇到一位“红颜知己”,但被妻子捉住,最终也没敢像郭沫若那般无耻——旁人看来,这也许是一对有些崎岖但也尚可的市井夫妻。却不知等文革来时,妻子率先发表大字报揭发丈夫。老舍自沉太平湖以后,有人说曾经见到他的妻子曾对他言语刻薄,要划清界限。&/p&&p&老师说这个故事的时候,语调里明显有一种深深的遗憾。&/p&&p&第三个是沈从文,这个故事比较平淡。大意是乡下小子沈从文对大家闺秀张兆和一见钟情,前前后后写了几百封可以入册的情书,张兆和一开始觉得他不知天高地厚到了有趣的程度,最后也慢慢被他的专情和文采打动。两人在胡适等好事之徒的撮合下结为连理,却在婚后迅速的因为太过悬殊的背景而无法继续生活,一度分居。然而解放后的数次清算时期,两人的感情最终还是占了上风。张回到了沈的身边,在关键问题上点醒了沈从文,让他放弃写作转行历史研究,又捐出了大量娘家的文物帮助小家庭躲过了十年浩劫。张兆和对沈从文可谓尽责,但对他的不理解也一样几乎持续到了人生的尽头。然而,在丈夫死后,她才终于发现两人之间的感情之深,并最终在丈夫的墓碑上写下了“不折不从,星斗其文;亦慈亦让,赤子其人”这十六个字。&/p&&p&这十六个字,写尽了沈从文的一生。&/p&&p&老师在讲这个故事的时候,有一些同情,但也有一些欣慰。&/p&&p&第四个就是钱钟书,他和杨绛的故事在今天几乎让人耳熟能详了。老师所述与今天大部分媒体公众号“来看看什么是爱情:杨绛先生谈论钱钟书”这类文章没什么太大不同。唯一让我记得的是,就是讲两人在五七干校受教育时依然把彼此护得非常周全,他们夫妻甚至在和别人起冲突时干过揪人头发,扇人耳光之事。这个细节让我至今依然觉得他们的爱情非常纯粹,不但不和爱好与物质有关,甚至不和名节与面子有关,真正做到了惘论世人,只求本心。&/p&&p&老师讲到钱钟书和杨绛时,毫不意外的,语气中充满了羡慕。&/p&&p&讲完钱钟书的故事,眼看就要下课,老师突然说,我有一个忠告,想说给你们在座的所有同学听。&/p&&p&”郭沫若的婚姻没有道德,所以他的下场最凄凉。老舍的婚姻有道德而无感情,在平日里也许还能支撑,但是一到难关,夫妻就很容易分手,甚至会互相损害只求自保;沈从文的婚姻有道德也有感情,只是缺少理解或者说是乐趣,这样的婚姻稳定,但可能终其一生都有很多劳碌和抱怨;钱钟书的婚姻才是真正的包含了全部的道德、感情与乐趣,所以他们成为了彼此的灵魂伴侣,代表了爱情最美好的部分。”&/p&&p&“你们也许还没法体会到,但人生在世,婚姻其实非常非常重要。我希望大家将来都认真对待婚姻,不求达到钱杨的境界,但最起码也要学习沈从文,把道德和感情这两条底线牢牢地把握住。人一辈子七八十年。其实长的超出你们的预料,想在这么长的时间里不遇到任何变故是不可能的。一个讲道德、有感情的婚姻,就像一把下了的锚,有了它,多大的浪头来了你都不会倾覆。因为你心里知道自己还有想见到的人,有想尽的责任,这种想法的力量是和信仰相当的。”&/p&&p&那一刻,我记得我的视线第一次从书桌下放着的日本动画新番上移开,来到了这位在某著名工科学府教授文学选修课的老师身上。老师很年轻,从口音里判断是个北京人,身上穿着气质无一不透露出他的郁郁不得志。然而当他说出这一番话的时候,正气浩然,振聋发聩,仿佛先师孔圣附体。不光是我,在场的几十位单身宅男里,大约有一半都停下了手头的网络小说或者信号与系统习题集,抬起头看着他。&/p&&p&他的这番话,在我之后的人生里不断被想起,印证。&/p&&p&&br&&/p&&p&&br&&/p&&p&我曾经有一位日本老板,总裁级别,五十多岁,离过一次婚,前妻和一对儿女都跑去美国和他彻底断绝往来了。孤身一人几年后他又找了个老婆,两人一直和和睦睦到现在。我在日本出差的时候,曾经亲眼看见他在九点下班后走回在六本木的豪宅,路上还跑去便利店买了一些蔬菜肉类。第二天我好奇的问起这件事,他告诉我,在他们家他每周有两天是要买菜做饭的,这个规矩无论多忙都不会更改。&/p&&p&在日本这个女性地位极其低下的地方,作为一个行业内人人敬重的大佬,我觉得这个行为匪夷所思,但最终也没有多问。直到后来公司快要倒闭我即将离职的时候,他来中国和我喝饯别酒。那一次我说道,他在国内出差每天晚上都早早回酒店,去日式KTV谈生意的时候举止也很端正,然后居然还会给自己老婆做饭,这和我过去想象中的日本经理人是完全不同的。听到这个评价他哈哈大笑,然而之后却说道,男人要懂得了解和控制自己的欲望,他自己年轻时候也犯过很大的错误,所以现在才会特别善待家人。临走前,他又特别强调了一遍。&/p&&p&“男人的幸福来自控制自己的欲望啊。玩弄自己的家庭,在你顺利的时候也许还不是问题,但如果到了人生的低谷,失去家庭你就真的一无所有了,这句话你一定要记住!”&/p&&p&照理说,那时候的我应该是很难理解这段话的。但不知为何我却觉得我听懂了。&/p&&p&两年后,我结婚的婚宴上,他从遥远的东京送来祝福。也许是以前没这么做过,视频里的老头很不自然,用非常僵硬的语调祝我新婚和睦,以后记得带妻子来东京玩。之后也许是他自己也觉得这个视频太逊了,还追加了一封邮件,再次告诉我凡事要以家庭为重。&/p&&p&我的前老板快六十岁,他曾经和比尔盖茨在一场72小时的拉力谈判中针锋相对,从孙正义手里拿到过天使投资,还一度被某位中国首富视作救命稻草。然而他眼中最值得传给我的人生经验却是两个字:家庭。&/p&&p&之后我的职业之路带着我去了另一个地方,看到的事情也越来越多。曾经我所在的中国公司有一位销售经理,事业有成却喜欢沾花惹草。那一阵子我马上要出国,下班都比别人早一些,怕影响同事情绪就喜欢走楼梯。有一天我在楼梯间听到了他的声音,仔细分辨,却是在声泪俱下的向电话里的老婆承认错误,撕心裂肺地恳求再给自己一次机会云云。后来他就离职了,去了另外一家小公司,不跑销售转了对海外的工作。最后是否挽回了他的婚姻我并不知道,但每当同事议论起这桩离奇的离职,我总觉得我大概能知道其中的缘由。&/p&&p&后来我还遇到了我们事业部现在的大老板,一个意大利人,十足的工作狂。不止他自己看着比年龄苍老许多,他老婆也被折腾成了一个和结婚照上非常两样的黄脸婆——这个家伙给人的印象是个十足的大男子主义者。我所在这个事业部是全集团最卑微的,这从他们招募我做总部的经理就可以看得出来。曾经有一次,集团严肃的考虑过要不要把我们出售掉的问题。那一段时间大家没日没夜地做PPT,试图用一些关于未来的幻想证明我们现在的价值。最终这个努力得到了认可,在那一场集团高层会议后,大老板如释重负的走出来,邀请了所有参与PPT制作的人员一起吃饭。走去餐厅的路上,也许是等不及了,他掏出手机打了一个电话,那声音里有无尽的兴奋激动与温柔,是我此生从来没有听到过的。&/p&&p&我也才第一次知道,原来在家里,他一直叫他的老婆“梅梅”。&/p&&p&我的职业之路继续蜿蜒发展,直到我能切身体会到生存的压力,职场上的起伏,以及关于人生的各种迷茫。这时候我已经不需要再看别人了,回顾自己,我就足以发现婚姻对一般人的价值——并不是让你每一天都开开心心,也不是让你能一直体会到激情和爱。很多时候,婚姻甚至是相反的,它用红绸缚住你的手脚,把一大堆不相干的三姑六婆人情世故绑在一起,让你疲劳,怀疑这一切到底有什么意义。&/p&&p&婚姻的真正价值,其实体现在人生的暗面,在你寂寞的时候旁边有一个人听着你的讫语,陪着你无所事事;在你空虚的时候心头会突然出现一个眼神,让你觉得要改变一些什么;而当你被打倒在地踩上一只脚的时候,有一扇门依然为你敞开着,里面的人不但对你没有那么苛责,甚至还会尝试抚平你的伤口,为你的悲伤而悲伤。&/p&&p&父母也能做到这样的事情。但是很遗憾,他们对你的理解并不会这么深,他们对你的陪伴也没法这么久。&/p&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&p&我和我老婆的婚姻,应该始于沈从文那个档次。我们一见钟情,但却不得不承认直到结婚我们对彼此的理解都不太够。从我老婆的视角来看,她理想的伴侣应该积极阳光,不做太多非分之想,身强体壮且热爱运动,同时为人周正,擅长维持人际关系。对于这个标准,我只能说如果人间真的存在这样的奇男子,那一定是上帝把我性格的全息图谱通过PS反色后,再装进了某个男人的躯壳里。我不但阴沉羸弱,爱胡思乱想且讨厌运动,还尤其崇尚酸腐知识分子的风格,对人际关系极尽逃避之能事。外加我还是个上海人,老婆曾在七年前第一次来上海时就暗中发誓以后决不嫁上海人…总而言之,交往初期,我们还是比较小心翼翼的。感情让我们随时都渴望拥抱在一起,但许多三观上的问题又把我们搞得非常疲惫。&/p&&p&曾经我也有些遗憾的想着也许我们的一生就会这么平平淡淡地过去了。后来我远走国外,老婆一边抱怨一边选择独自留在上海发展自己。我来到前文所说的那个卑微的事业部,开始了我更加卑微的产品经理一职。由于丹麦的天气,部分同事的不友好,以及对全球市场极其贫乏的知识,我的前半年非常颓废,甚至到了需要吃药维持情绪稳定的程度。偏偏我的性格还不让我把这些问题说出来,老板们看着我明明头在云中还坚持说没事,都感到深深的不安,我老婆也隐约发现了一些异样,但六千多公里的距离岂是一根网线所能填平的。我一直说自己还好,直到有一天,我刚用刮胡刀割掉了六个月没剪的头发。那天老婆和我视频,突然要求我把头转过去让她看看后面,我照做之后,老婆就出现了疑似中邪的症状,一边大笑一边又在落泪。一个月后,她辞去了工作,来到丹麦陪我。那时我才知道上次所谓的剃头把自己后脑勺犁出了一片两厘米宽四厘米长的秃块。后来同事和我说道,他们以为我在中国的家里是有许多仆人的,因为我显然没有任何基础的生存技能。而我老婆则说,当时她看到了我的新发型的时候突然有一个感觉,那就是如果她不来陪我,我可能会死,然后眼泪就自顾自掉下来了。&/p&&p&对于这个说法,我到今天也没有予以置评,不过心里很是温暖。&/p&&p&这种温暖并不是因为她来做了老妈子,事实上老婆来了不久便怀孕了,关于生活的问题以我学会了做饭等一系列技能而告终,真是可喜可贺。不过她在的时候我总有下厨房的动力,一个人的时候则不是如此,从这个事实上,我必须肯定老婆独特的价值。&/p&&p&之后我们又一起经历了生产。老婆在产后出现了相当程度的大出血,在大约十五分钟时间里,我第一次体会到了可能会失去她的煎熬,那种感觉极难描述,因为每当我开始往那个方向想,就似乎有一股电流将我大脑打得瘫痪。后来我才知道,这种现象叫做应激保护,原因是我的神经系统经过各种评估,觉得我没有一点点的可能接受这样一种结局,于是便强迫我不去想。而我之所以不愿意接受,应该是因为爱在失去的时候表现得更加强烈吧。就像张兆和在沈从文死后突然间堪破了天机。&/p&&p&我曾经把这些心情说给我老婆听过,她开头大为感动,事后却说自己并不满意,因为随着时间的流逝,我肯定会慢慢把这种感觉忘得一干二净。对此我也不置可否,但心里却说这正是爱和婚姻的真正样子啊。整天甜言蜜语哄着你的不一定真正爱你,但是性命攸关的时候痛彻心肺,愿意豁出一切拯救你的,才是合格的丈夫。我也曾经想把这些话和她讲,但最终放弃了,因为她一定会说“关键时刻靠谱和平日甜言蜜语难道不能共存吗?”然后我便又一次仿佛犯了什么天条。&/p&&p&你总是觉得我的爱不够,但或许是因为你太爱我了,这么一想,好多事情又变得让我愿意接受起来。&/p&&p&我们在丹麦还做过好多事,但这些事情最后都化成了一种感觉,模模糊糊的追寻不得。我只觉得,现在当我们因为无聊而靠在一起的时候,彼此不需要找话也不会尴尬,好像静静地一起发呆本身就有独特的意义。我们也会吵架,也会时不时地惊讶于对方缺乏自己认为的“常识”,但我们也不像过去那么害怕揭露这个事实了——人生里匪夷所思的事情太多,而我们已经验证过,彼此肯定是自己遇到的人里比较正常的那一类。&/p&&p&我有时候会大言不惭地想,我们难道就不能再进一步吗,成为真正理解彼此的知音吗?从理论上说,婚姻本身的确应该如此,既然我们又有道德又有感情,那随着一起经历的事情越来越多,交流和趣味也应该一起增长吧。但不知为何,我又觉得这种事情必须随缘,强求就会事与愿违。&/p&&p&老婆有时候也会问我,你觉得我们是不是soulmate呀,这个时候我知道该哄她一下,然而我不能,实在是这个词在我心里太过重要,这不是一句情话,而是一句庄严的,迈向终极幸福的承诺。&/p&&p&但我又真心希望我们最终能够如此。&/p&&p&那时候的我们,应该就像两个早已熟悉彼此的,无忧无虑的孩子。&/p&&p&&br&&/p&&p&&br&&/p&&p&10月8日统一回复如下:&/p&&p&这篇文章其实写于今年七夕,当时回国出差,夜晚坐在上海到徐州的火车上,前后刚好花了三个小时写成。之后以《谈论婚姻时,我们在谈些什么》为题发到了我最常用的论坛上,再转发给了老婆和朋友圈——所以,这篇文章并非完全纯粹的经历分享,而是怀着部分为七夕增添一些浪漫并节约一些礼品钱的不甚纯良的目的。所幸我老婆虽然懂,但还是挺满意的。之后因为我一直没搞定那个论坛的实名认证,于是抢救性的把之前几年内的高质量帖子转来知乎,并为其中一些找了合适的问题作为回答。但这篇文章能吸引如此多的人点赞完全出乎我的预料,或者说,让我非常诚惶诚恐。&br&回答里第一个部分真实发生于九年前的课堂之上。我现在也发现沈从文的十六字判词来源有误,不知道是我自己记错了还是老师当时就说错了。我事后也发现沈从文这个故事争议极多,但老师拿他们做例子,可能也是自己上课范围内能找到的最合适的目标了。其实我还是想说,沈张二人所经历的时代和实景一言难尽,本来就很难用单一维度的标准进行评价,但我不会围绕这个观点和任何人进行争论。&br&我当时上的那门课实际叫做《中国现代文学史》,老师名字已经完全忘了。上交大的学弟学妹们如果感兴趣,可以去看看这门课还在不在,体验一下老师讲的到底如何,是否备课十年未变。&br&&br&最后,这几天有很多朋友私信或者留言希望我对他们的婚姻和爱情给予建议。说实话,许多故事让我读过以后非常唏嘘。我理解这种在迷茫期看到一点烛光都凑上去希望是一扇门的感觉,也很想帮助大家,但我确实没有这种能力。三四年来,我写的所有文章里只有两篇和家庭有关。如果我成了所谓婚姻相关问题的优秀回答者并且都开始传道授业解惑,那这个时代才是真的疯了。坦诚的讲,我和我老婆的相遇存在一些运气因素。并且在我们相处的早期,她在两人关系上花费的精力/忍耐都要超过于我,还承担了绝大部分coaching的责任。所以在“如何从实践角度寻找/发展/修复一段优质婚姻”这个问题上,我扪心自问,并无话可说。如果一定要归纳一些基于我自身的经验,我还是会选择我前老板的话“了解和控制自己的欲望”。只不过我觉得这句话不但适用于男性,也适用于女性。不但适用于婚后,可能还更适用于婚前。&/p&
早在十年前,我曾经为了学分,恬不知耻的选择了一些文史类选修课程。那时候我在上《中国近代文学史》,老师花费了两个礼拜和我们讲述了四位著名作家的生平,尤其是他们的婚姻部分。第一个是郭沫若。老师说这位文学大师一生有三位妻子,一个情人,然而他却毫…
&p&&b&&u&人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。&/u&&/b&&br&&br&&br&上面这句话不是危言耸听,请耐心的看完本文再发表意见。这篇翻译稿翻译完一共三万五千字,我从上星期开始翻,熬了好几个夜才翻完,因为我觉得这篇东西非常有价值。&b&希望你们能够耐心读完,读完后也许你的世界观都会被改变。&/b&&br&&br&======================&/p&&p&内容翻译自&a href=&/?target=http%3A//& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&br&原文地址:&br&&a href=&/?target=http%3A///2015/01/artificial-intelligence-revolution-1.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The AI Revolution: Road to Superintelligence&i class=&icon-external&&&/i&&/a&&br&&a href=&/?target=http%3A///2015/01/artificial-intelligence-revolution-2.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The AI Revolution: Our Immortality or Extinction&i class=&icon-external&&&/i&&/a&&br&&/p&&p&&b&自日起转载请务必私信咨询,否则视为未授权转载 知乎 &a data-hash=&c948a6c96e2c& href=&/people/c948a6c96e2c& class=&member_mention& data-editable=&true& data-title=&@谢熊猫君& data-tip=&p$b$c948a6c96e2c& data-hovercard=&p$b$c948a6c96e2c&&@谢熊猫君&/a&&/b&&/p&&p&=======================&br&&br&&br&&br&&br&&/p&&p&我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大 – Vernor Vinge&/p&&br&&p&如果你站在这里,你会是什么感觉?&/p&&br&&img src=&/7b46c715f22c875d3b103dc7dedb1c29_b.jpg& data-rawwidth=&1012& data-rawheight=&720& class=&origin_image zh-lightbox-thumb& width=&1012& data-original=&/7b46c715f22c875d3b103dc7dedb1c29_r.jpg&&&br&&br&&p&看上去非常刺激吧?但是你要记住,当你真的站在时间的图表中的时候,你是看不到曲线的右边的,因为你是看不到未来的。所以你真实的感觉大概是这样的:&/p&&img src=&/b6fc9b85c7c2c9ed1cf2df24b2be0872_b.jpg& data-rawwidth=&1012& data-rawheight=&720& class=&origin_image zh-lightbox-thumb& width=&1012& data-original=&/b6fc9b85c7c2c9ed1cf2df24b2be0872_r.jpg&&&br&&br&&p&稀松平常。&/p&&p&-------------------------------&/p&&br&&br&&br&&p&&b&&u&遥远的未来——就在眼前&/u&&/b&&/p&&br&&p&想象一下坐时间机器回到1750年的地球,那个时代没有电,畅通通讯基本靠吼,交通主要靠动物拉着跑。你在那个时代邀请了一个叫老王的人到2015年来玩,顺便看看他对“未来”有什么感受。我们可能没有办法了解1750年的老王内心的感受——金属铁壳在宽敞的公路上飞驰,和太平洋另一头的人聊天,看几千公里外正在发生进行的体育比赛,观看一场发生于半个世纪前的演唱会,从口袋里掏出一个黑色长方形工具把眼前发生的事情记录下来,生成一个地图然后地图上有个蓝点告诉你现在的位置,一边看着地球另一边的人的脸一边聊天,以及其它各种各样的黑科技。别忘了,你还没跟他解释互联网、国际空间站、大型强子对撞机、核武器以及相对论。&/p&&br&&p&这时候的老王会是什么体验?惊讶、震惊、脑洞大开这些词都太温顺了,我觉得&b&老王很可能直接被吓尿了。&/b&&/p&&br&&p&但是,如果老王回到了1750年,然后觉得被吓尿是个很囧的体验,于是他也想把别人吓尿来满足一下自己,那会发生什么?于是老王也回到了250年前的1500年,邀请生活在1500年的小李去1750年玩一下。小李可能会被250年后的很多东西震惊,但是至少他不会被吓尿。同样是250来年的时间,年的差别,比1500年和1750年的差别,要大得多了。1500年的小李可能能学到很多神奇的物理知识,可能会惊讶于欧洲的帝国主义旅程,甚至对于世界地图的认知也会大大的改变,但是1500年的小李,看到1750年的交通、通讯等等,并不会被吓尿。&/p&&br&&p&所以说,对于1750年的老王来说,要把人吓尿,他需要回到更古老的过去——比如回到公元前12000年,第一次农业革命之前。那个时候还没有城市,也还没有文明。一个来自狩猎采集时代的人类,只是当时众多物种中的一个罢了,来自那个时代的小赵看到1750年庞大的人类帝国,可以航行于海洋上的巨舰,居住在“室内”,无数的收藏品,神奇的知识和发现——他很有可能被吓尿。&/p&&br&&p&小赵被吓尿后如果也想做同样的事情呢?如果他会到公元前24000年,找到那个时代的小钱,然后给他展示公元前12000年的生活会怎样呢。小钱大概会觉得小赵是吃饱了没事干——“这不跟我的生活差不多么,呵呵”。小赵如果要把人吓尿,可能要回到十万年前或者更久,然后用人类对火和语言的掌控来把对方吓尿。&/p&&br&&p&所以,一个人去到未来,并且被吓尿,他们需要满足一个“吓尿单位”。满足吓尿单位所需的年代间隔是不一样的。在狩猎采集时代满足一个吓尿单位需要超过十万年,而工业革命后一个吓尿单位只要两百多年就能满足。&/p&&br&&p&未来学家Ray Kurzweil把这种人类的加速发展称作加速回报定律(Law of Accelerating Returns)。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快——这本就是更加发达的一个标准。19世纪的人们比15世纪的人们懂得多得多,所以19世纪的人发展起来的速度自然比15世纪的人更快。&/p&&br&&p&即使放到更小的时间规模上,这个定律依然有效。著名电影《回到未来》中,生活在1985年的主角回到了1955年。当主角回到1955年的时候,他被电视刚出现时的新颖、便宜的物价、没人喜欢电吉他、俚语的不同而震惊。&/p&&br&&p&但是如果这部电影发生在2015年,回到30年前的主角的震惊要比这大得多。一个2000年左右出生的人,回到一个没有个人电脑、互联网、手机的1985年,会比从1985年回到1955年的主角看到更大的区别。&/p&&br&&p&这同样是因为加速回报定律。1985年-2015年的平均发展速度,要比1955年-1985年的平均发展速度要快,因为1985年的世界比1955年的更发达,起点更高,所以过去30年的变化要大过之前30年的变化。&/p&&br&&p&进步越来越大,发生的越来越快,也就是说我们的未来会很有趣对吧?&/p&&br&&p&未来学家Kurzweil认为整个20世纪100年的进步,按照2000年的速度只要20年就能达成——2000年的发展速度是20世纪平均发展速度的5倍。他认为2000年开始只要花14年就能达成整个20世纪一百年的进步,而之后2014年开始只要花7年(2021年),就能达到又一个20世纪一百年的进步。几十年之后,我们每年都能达成好几次相当于整个20世纪的发展,再往后,说不定每个月都能达成一次。按照加速回报定,Kurzweil认为&b&人类在&/b&&b&21世纪的进步将是20世纪的1000&/b&&b&倍&/b&。&/p&&br&&p&如果Kurzweil等人的想法是正确的,那2030年的世界可能就能把我们吓尿了——&b&下一个吓尿单位可能只需要十几年&/b&,而2050年的世界会变得面目全非。&/p&&br&&img src=&/ab20dfdd04cc_b.jpg& data-rawwidth=&800& data-rawheight=&485& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/ab20dfdd04cc_r.jpg&&&br&&br&&p&你可能觉得2050年的世界会变得面目全非这句话很可笑,但是这不是科幻,而是比你我聪明很多的科学家们相信的,而且从历史来看,也是逻辑上可以预测的。&/p&&br&&p&那么为什么你会觉得“2050年的世界会变得面目全非” 这句话很可笑呢?有三个原因让你质疑对于未来的预测:&/p&&br&&blockquote&&b&1. &/b&&b&我们对于历史的思考是线性的。&/b&当我们考虑未来35年的变化时,我们参照的是过去35年发生的事情。当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化。这就好像1750年的老王觉得1500年的小李在1750年能被吓尿一样。线性思考是本能的,但是但是考虑未来的时候我们应该指数地思考。一个聪明人不会把过去35年的发展作为未来35年的参考,而是会看到当下的发展速度,这样预测的会更准确一点。当然这样还是不够准确,想要更准确,你要想象发展的速度会越来越快。&/blockquote&&img src=&/e84cfda0c979ea87db32974c_b.jpg& data-rawwidth=&1120& data-rawheight=&688& class=&origin_image zh-lightbox-thumb& width=&1120& data-original=&/e84cfda0c979ea87db32974c_r.jpg&&&br&&br&&blockquote&&b&2. &/b&&b&近期的历史很可能对人产生误导。&/b&首先,即使是坡度很高的指数曲线,只要你截取的部分够短,看起来也是很线性的,就好像你截取圆周的很小一块,看上去就是和直线差不多。其次,指数增长不是平滑统一的,发展常常遵循S曲线。&/blockquote&&br&&img src=&/0d8d7f7aab9f33d2af8f_b.jpg& data-rawwidth=&1101& data-rawheight=&900& class=&origin_image zh-lightbox-thumb& width=&1101& data-original=&/0d8d7f7aab9f33d2af8f_r.jpg&&&br&&br&&blockquote&&p&S曲线发生在新范式传遍世界的时候,S曲线分三部分&/p&&p&-
慢速增长(指数增长初期)&/p&&p&-
快速增长(指数增长的快速增长期)&/p&&p&-
随着新范式的成熟而出现的平缓期&/p&&br&&p&如果你只看近期的历史,你很可能看到的是S曲线的某一部分,而这部分可能不能说明发展究竟有多快速。年是互联网爆炸发展的时候,微软、谷歌、脸书进入了公众视野,伴随着的是社交网络、手机的出现和普及、智能手机的出现和普及,这一段时间就是S曲线的快速增长期。年发展没那么迅速,至少在技术领域是这样的。如果按照过去几年的发展速度来估计当下的发展速度,可能会错得离谱,因为很有可能下一个快速增长期正在萌芽。&/p&&br&&p&&b&3. 个人经验使得我们对于未来预期过于死板。&/b&我们通过自身的经验来产生世界观,而经验把发展的速度烙印在了我们脑中——“发展就是这么个速度的。”我们还会受限于自己的想象力,因为想象力通过过去的经验来组成对未来的预测——但是我们知道的东西是不足以帮助我们预测未来的。当我们听到一个和我们经验相违背的对于未来的预测时,我们就会觉得这个预测偏了。如果我现在跟你说你可以活到150岁,250岁,甚至会永生,你是不是觉得我在扯淡——“自古以来,所有人都是会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机呀。&/p&&/blockquote&&br&&p&&b&接下来的内容,你可能一边读一边心里“呵呵”,而且这些内容可能真的是错的。但是如果我们是真的从历史规律来进行逻辑思考的,我们的结论就应该是未来的几十年将发生比我们预期的多得多得多得多的变化。&/b&同样的逻辑也表明,如果人类这个地球上最发达的物种能够越走越快,总有一天,他们会迈出彻底改变“人类是什么”这一观点的一大步,就好像自然进化不不断朝着智能迈步,并且最终迈出一大步产生了人类,从而完全改变了其它所有生物的命运。如果你留心一下近来的科技进步的话,你会发现,到处都暗示着我们对于生命的认知将要被接下来的发展而彻底改变。&/p&&br&&br&&br&&br&&p&_______________&/p&&p&&b&&u&通往超级智能之路&/u&&/b&&/p&&br&&p&&b&人工智能是什么?&/b&&/p&&p&如果你一直以来把人工智能(AI)当做科幻小说,但是近来却不但听到很多正经人严肃的讨论这个问题,你可能也会困惑。这种困惑是有原因的:&/p&&blockquote&&p&&b&1.&/b&&b&我们总是把人工智能和电影想到一起。&/b&星球大战、终结者、2001:太空漫游等等。电影是虚构的,那些电影角色也是虚构的,所以我们总是觉得人工智能缺乏真实感。&/p&&br&&p&&b&2.&/b&&b&人工智能是个很宽泛的话题。&/b&从手机上的计算器到无人驾驶汽车,到未来可能改变世界的重大变革,人工智能可以用来描述很多东西,所以人们会有疑惑。&/p&&br&&p&&b&3.&/b&&b&我们日常生活中已经每天都在使用人工智能了&/b&,只是我们没意识到而已。John McCarthy,在1956年最早使用了人工智能(Artificial Intelligence)这个词。他总是抱怨“一旦一样东西用人工智能实现了,人们就不再叫它人工智能了。”&/p&因为这种效应,所以人工智能听起来总让人觉得是未来的神秘存在,而不是身边已经存在的现实。同时,这种效应也让人们觉得人工智能是一个从未被实现过的流行理念。Kurzweil提到经常有人说人工智能在80年代就被遗弃了,这种说法就好像“互联网已经在21世纪初互联网泡沫爆炸时死去了”一般滑稽。&/blockquote&&br&&br&&br&&br&&p&所以,让我们从头开始。&/p&&br&&br&&p&&b&首先,不要一提到人工智能就想着机器人&/b&。机器人只是人工智能的容器,机器人有时候是人形,有时候不是,但是人工智能自身只是机器人体内的电脑。人工智能是大脑的话,机器人就是身体——而且这个身体不一定是必需的。比如说Siri背后的软件和数据是人工智能,Siri说话的声音是这个人工智能的人格化体现,但是Siri本身并没有机器人这个组成部分。&/p&&br&&p&其次,你可能听过“奇点”或者“技术奇点”这种说法。这种说法在数学上用来描述类似渐进的情况,这种情况下通常的规律就不适用了。这种说法同样被用在物理上来描述无限小的高密度黑洞,同样是通常的规律不适用的情况。Kurzweil则把奇点定义为加速回报定律达到了极限,技术进步以近乎无限的速度发展,而奇点之后我们将在一个完全不同的世界生活的。但是当下的很多思考人工智能的人已经不再用奇点这个说法了,而且这种说法很容易把人弄混,所以本文也尽量少用。&/p&&br&&p&最后,人工智能的概念很宽,所以人工智能也分很多种,我们按照人工智能的实力将其分成三大类。&/p&&blockquote&&p&&b&弱人工智能Artificial Narrow Intelligence (ANI): &/b&弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。&/p&&br&&p&&b&强人工智能Artificial General Intelligence (AGI): &/b&人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。&/p&&br&&p&&b&超人工智能Artificial Superintelligence (ASI): &/b&牛津哲学家,知名人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是为什么人工智能这个话题这么火热的缘故,同样也是为什么永生和灭绝这两个词会在本文中多次出现。&/p&&/blockquote&&br&&p&现在,人类已经掌握了弱人工智能。其实弱人工智能无处不在,人工智能革命是从弱人工智能,通过强人工智能,最终到达超人工智能的旅途。这段旅途中人类可能会生还下来,可能不会,但是无论如何,世界将变得完全不一样。&/p&&br&&p&让我们来看看这个领域的思想家对于这个旅途是怎么看的,以及为什么人工智能革命可能比你想的要近得多。&/p&&br&&br&&p&&b&我们现在的位置——充满了弱人工智能的世界&/b&&/p&&p&弱人工智能是在特定领域等同或者超过人类智能/效率的机器智能,一些常见的例子:&/p&&ul&&li&汽车上有很多的弱人工智能系统,从控制防抱死系统的电脑,到控制汽油注入参数的电脑。谷歌正在测试的无人驾驶车,就包括了很多弱人工智能,这些弱人工智能能够感知周围环境并作出反应。&/li&&li&你的手机也充满了弱人工智能系统。当你用地图软件导航,接受音乐电台推荐,查询明天的天气,和Siri聊天,以及其它很多很多应用,其实都是弱人工智能。&/li&&li&垃圾邮件过滤器是一种经典的弱人工智能——它一开始就加载了很多识别垃圾邮件的智能,并且它会学习并且根据你的使用而获得经验。智能室温调节也是一样,它能根据你的日常习惯来智能调节。&/li&&li&你在上网时候出现的各种其它电商网站的产品推荐,还有社交网站的好友推荐,这些都是弱人工智能的组成的,弱人工智能联网互相沟通,利用你的信息来进行推荐。网购时出现的“买这个商品的人还购买了”推荐,其实就是收集数百万用户行为然后产生信息来卖东西给你的弱人工智能。&/li&&li&谷歌翻译也是一种经典的人工智能——非常擅长单个领域。声音识别也是一种。很多软件利用这两种智能的合作,使得你能对着手机说中文,手机直接给你翻译成英文。&/li&&li&当飞机着陆时候,不是一个人类决定飞机该去那个登机口接驳。就好像你在网上买票时票据不是一个人类决定的。&/li&&li&世界最强的跳棋、象棋、拼字棋、双陆棋和黑白棋选手都是弱人工智能。&/li&&li&谷歌搜索是一个巨大的弱人工智能,背后是非常复杂的排序方法和内容检索。社交网络的新鲜事同样是这样。&/li&&li&这些还只是消费级产品的例子。军事、制造、金融(高频算法交易占到了美国股票交易的一半)等领域广泛运用各种复杂的弱人工智能。专业系统也有,比如帮助医生诊断疾病的系统,还有著名的IBM的华生,储存了大量事实数据,还能理解主持人的提问,在竞猜节目中能够战胜最厉害的参赛者。&/li&&/ul&&br&&p&现在的弱人工智能系统并不吓人。最糟糕的情况,无非是代码没写好,程序出故障,造成了单独的灾难,比如造成停电、核电站故障、金融市场崩盘等等。&/p&&br&&p&虽然现在的弱人工智能没有威胁我们生存的能力,我们还是要怀着警惕的观点看待正在变得更加庞大和复杂的弱人工智能的生态。&b&每一个弱人工智能的创新,都在给通往强人工智能和超人工智能的旅途添砖加瓦&/b&。用Aaron Saenz的观点,现在的弱人工智能,就是地球早期软泥中的氨基酸——没有动静的物质,突然之间就组成了生命。&/p&&br&&br&&br&&p&&b&弱人工智能到强人工智能之路&/b&&/p&&p&&u&为什么这条路很难走&/u&&/p&&p&只有明白创造一个人类智能水平的电脑是多么不容易,才能让你真的理解人类的智能是多么不可思议。造摩天大楼、把人送入太空、明白宇宙大爆炸的细节——这些都比理解人类的大脑,并且创造个类似的东西要简单太多了。至今为止,&b&人类的大脑是我们所知宇宙中最复杂的东西。&/b&&/p&&br&&p&而且创造强人工智能的难处,并不是你本能认为的那些。&/p&&blockquote&&p&造一个能在瞬间算出十位数乘法的计算机——非常简单&/p&&p&造一个能分辨出一个动物是猫还是狗的计算机——极端困难&/p&&p&造一个能战胜世界象棋冠军的电脑——早就成功了&/p&&p&造一个能够读懂六岁小朋友的图片书中的文字,并且了解那些词汇意思的电脑——谷歌花了几十亿美元在做,还没做出来。&/p&&p&&b&一些我们觉得困难的事情——微积分、金融市场策略、翻译等,对于电脑来说都太简单了&/b&&/p&&p&&b&我们觉得容易的事情——视觉、动态、移动、直觉——对电脑来说太TM的难了。&/b&&/p&&/blockquote&&br&&p&用计算机科学家Donald Knuth的说法,&b&“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。”&/b&&/p&&p&读者应该能很快意识到,那些对我们来说很简单的事情,其实是很复杂的,它们看上去很简单,因为它们已经在动物进化的过程中经历了几亿年的优化了。当你举手拿一件东西的时候,你肩膀、手肘、手腕里的肌肉、肌腱和骨头,瞬间就进行了一组复杂的物理运作,这一切还配合着你的眼睛的运作,使得你的手能都在三维空间中进行直线运作。对你来说这一切轻而易举,因为在你脑中负责处理这些的“软件”已经很完美了。同样的,软件很难识别网站的验证码,不是因为软件太蠢,恰恰相反,是因为能够读懂验证码是件碉堡了的事情。&/p&&br&&p&同样的,大数相乘、下棋等等,对于生物来说是很新的技能,我们还没有几亿年的世界来进化这些能力,所以电脑很轻易的就击败了我们。试想一下,如果让你写一个程序,是一个能做大数相乘的程序容易写,还是能够识别千千万万种字体和笔迹下书写的英文字母的程序难写?&/p&&p&比如看着下面这个图的时候,你和电脑都能识别出这是一个由两种颜色的小长方形组成的一个大长方形。&/p&&br&&img src=&/6e47dfbf9e677f0445f4_b.jpg& data-rawwidth=&350& data-rawheight=&538& class=&content_image& width=&350&&&br&&br&&br&&p&你和电脑打了个平手。接着我们把途中的黑色部分去除:&/p&&img src=&/a11ca37ae34b168b1473e2_b.jpg& data-rawwidth=&338& data-rawheight=&558& class=&content_image& width=&338&&&br&&br&你可以轻易的描述图形中透明或不透明的圆柱和3D图形,但是电脑就看不出来了。电脑会描述出2D的阴影细节,但是人脑却能够把这些阴影所展现的深度、阴影混合、房屋灯光解读出来。&br&&br&再看下面这张图,电脑看到的是黑白灰,我们看到的却是一块全黑的石头&br&&img src=&/a88fa170434_b.jpg& data-rawwidth=&634& data-rawheight=&330& class=&origin_image zh-lightbox-thumb& width=&634& data-original=&/a88fa170434_r.jpg&&&br&&br&&br&&p&而且,我们到现在谈的还是静态不变的信息。&b&要想达到人类级别的智能,电脑必须要理解更高深的东西,比如微小的脸部表情变化,开心、放松、满足、满意、高兴这些类似情绪间的区别,以及为什么《布达佩斯大饭店》是好电影,而《富春山居图》是烂电影。&/b&&/p&&br&&p&想想就很难吧?&/p&&br&&p&我们要怎样才能达到这样的水平呢?&/p&&br&&p&&u&通往强人工智能的第一步:增加电脑处理速度&/u&&br&&/p&&br&&p&要达到强人工智能,肯定要满足的就是电脑硬件的运算能力。如果一个人工智能要像人脑一般聪明,它至少要能达到人脑的运算能力。&/p&&br&&p&用来描述运算能力的单位叫作cps(calculations per second,每秒计算次数),要计算人脑的cps只要了解人脑中所有结构的最高cps,然后加起来就行了。&/p&&br&&p&Kurzweil把对于一个结构的最大cps的专业估算,然后考虑这个结构占整个大脑的重量,做乘法,来得出人脑的cps。听起来不太靠谱,但是Kurzweil用了对于不同大脑区域的专业估算值,得出的最终结果都非常类似,是10^16 cps,也就是1亿亿次计算每秒。&/p&&br&&p&现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了,天河每秒能进行3.4亿亿。当然,天河二号占地720平方米,耗电2400万瓦,耗费了3.9亿美元建造。广泛应用就不提了,即使是大部分商业或者工业运用也是很贵的。&/p&&br&&p&Kurzweil认为考虑电脑的发展程度的标杆是看1000美元能买到多少cps,当1000美元能买到人脑级别的1亿亿运算能力的时候,强人工智能可能就是生活的一部分了。&/p&&br&&p&摩尔定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数据所支持,这同样表明电脑硬件的发展和人类发展一样是指数级别的。我们用这个定律来衡量1000美元什么时候能买到1亿亿cps。现在1000美元能买到10万亿cps,和摩尔定律的历史预测相符合。&/p&&img src=&/7c6b532aed331cc88d1a77f097745fcf_b.jpg& data-rawwidth=&1020& data-rawheight=&870& class=&origin_image zh-lightbox-thumb& width=&1020& data-original=&/7c6b532aed331cc88d1a77f097745fcf_r.jpg&&&br&&br&&br&&p&也就是说现在1000美元能买到的电脑已经强过了老鼠,并且达到了人脑千分之一的水平。听起来还是弱爆了,但是,让我们考虑一下,1985年的时候,同样的钱只能买到人脑万亿分之一的cps,1995年变成了十亿分之一,2005年是百万分之一,而2015年已经是千分之一了。&b&按照这个速度,我们到&/b&&b&2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。&/b&&/p&&br&&p&至少在硬件上,我们已经能够强人工智能了(中国的天河二号),而且十年以内,我们就能以低廉的价格买到能够支持强人工智能的电脑硬件。&/p&&br&&p&但是运算能力并不能让电脑变得智能,下一个问题是,我们怎样利用这份运算能力来达成人类水平的智能。&/p&&p&&u&通往强人工智能的第二步:让电脑变得智能&/u&&/p&&br&&p&这一步比较难搞。事实上,没人知道该怎么搞——我们还停留在争论怎么让电脑分辨《富春山居图》是部烂片的阶段。但是,现在有一些策略,有可能会有效。下面是最常见的三种策略:&/p&&br&&p&&b&1) &/b&&b&抄袭人脑&/b&&/p&&p&就好像你班上有一个学霸。你不知道为什么学霸那么聪明,为什么考试每次都满分。虽然你也很努力的学习,但是你就是考的没有学霸好。最后你决定“老子不干了,我直接抄他的考试答案好了。”这种“抄袭”是有道理的,我们想要建造一个超级复杂的电脑,但是我们有人脑这个范本可以参考呀。&/p&&br&&p&科学界正在努力逆向工程人脑,来理解生物进化是怎么造出这么个神奇的东西的,乐观的估计是我们在2030年之前能够完成这个任务。一旦这个成就达成,我们就能知道为什么人脑能够如此高效、快速的运行,并且能从中获得灵感来进行创新。一个电脑架构模拟人脑的例子就是人工神经网络。它是一个由晶体管作为“神经”组成的网络,晶体管和其它晶体管互相连接,有自己的输入、输出系统,而且什么都不知道——就像一个婴儿的大脑。接着它会通过做任务来自我学习,比如识别笔迹。最开始它的神经处理和猜测会是随机的,但是当它得到正确的回馈后,相关晶体管之间的连接就会被加强;如果它得到错误的回馈,连接就会变弱。经过一段时间的测试和回馈后,这个网络自身就会组成一个智能的神经路径,而处理这项任务的能力也得到了优化。人脑的学习是类似的过程,不过比这复杂一点,随着我们对大脑研究的深入,我们将会发现更好的组建神经连接的方法。&/p&&br&&p&更加极端的“抄袭”方式是“整脑模拟”。具体来说就是把人脑切成很薄的片,用软件来准确的组建一个3D模型,然后把这个模型装在强力的电脑上。如果能做成,这台电脑就能做所有人脑能做的事情——只要让它学习和吸收信息就好了。如果做这事情的工程师够厉害的话,他们模拟出来的人脑甚至会有原本人脑的人格和记忆,电脑模拟出的人脑就会像原本的人脑一样——这就是非常符合人类标准的强人工智能,然后我们就能把它改造成一个更加厉害的超人工智能了。&/p&&br&&p&我们离整脑模拟还有多远呢?至今为止,我们刚刚能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是&b&要记住指数增长的威力——我们已经能模拟小虫子的大脑了,蚂蚁的大脑也不远了,接着就是老鼠的大脑,到那时模拟人类大脑就不是那么不现实的事情了。&/b&&/p&&br&&br&&p&&b&2&/b&&b&)模仿生物演化&/b&&/p&&p&抄学霸的答案当然是一种方法,但是如果学霸的答案太难抄了呢?那我们能不能学一下学霸备考的方法?&/p&&br&&p&首先我们很确定的知道,建造一个和人脑一样强大的电脑是可能的——我们的大脑就是证据。如果大脑太难完全模拟,那么我们可以模拟演化出大脑的过程。事实上,就算我们真的能完全模拟大脑,结果也就好像照抄鸟类翅膀的拍动来造飞机一样——很多时候最好的设计机器的方式并不是照抄生物设计。&/p&&br&&p&所以我们可不可以用模拟演化的方式来造强人工智能呢?这种方法叫作“基因算法”,它大概是这样的:建立一个反复运作的表现/评价过程,就好像生物通过生存这种方式来表现,并且以能否生养后代为评价一样。一组电脑将执行各种任务,最成功的将会“繁殖”,把各自的程序融合,产生新的电脑,而不成功的将会被剔除。经过多次的反复后。这个自然选择的过程将产生越来越强大的电脑。而这个方法的难点是建立一个自动化的评价和繁殖过程,使得整个流程能够自己运行。&/p&&p&这个方法的缺点也是很明显的,演化需要经过几十亿年的时间,而我们却只想花几十年时间。&/p&&p&但是比起自然演化来说,我们有很多优势。首先,自然演化是没有预知能力的,它是随机的——它产生的没用的变异比有用的变异多很多,但是人工模拟的演化可以控制过程,使其着重于有益的变化。其次,自然演化是没有目标的,自然演化出的智能也不是它目标,特定环境甚至对于更高的智能是不利的(因为高等智能消耗很多能源)。但是我们可以指挥演化的过程超更高智能的方向发展。再次,要产生智能,自然演化要先产生其它的附件,比如改良细胞产生能量的方法,但是我们完全可以用电力来代替这额外的负担。所以,人类主导的演化会比自然快很多很多,但是我们依然不清楚这些优势是否能使模拟演化成为可行的策略。&/p&&br&&p&&b&3)让电脑来解决这些问题&/b&&/p&&p&如果抄学霸的答案和模拟学霸备考的方法都走不通,那就干脆让考题自己解答自己吧。这种想法很无厘头,确实最有希望的一种。&/p&&p&总的思路是我们建造一个能进行两项任务的电脑——研究人工智能和修改自己的代码。这样它就不只能改进自己的架构了,我们直接把电脑变成了电脑科学家,提高电脑的智能就变成了电脑自己的任务。&/p&&p&以上这些都会很快发生&/p&&p&硬件的快速发展和软件的创新是同时发生的,强人工智能可能比我们预期的更早降临,因为:&/p&&p&1)指数级增长的开端可能像蜗牛漫步,但是后期会跑的非常快&/p&&br&&p&2)软件的发展可能看起来很缓慢,但是一次顿悟,就能永远改变进步的速度。就好像在人类还信奉地心说的时候,科学家们没法计算宇宙的运作方式,但是日心说的发现让一切变得容易很多。创造一个能自我改进的电脑来说,对我们来说还很远,但是可能一个无意的变动,就能让现在的系统变得强大千倍,从而开启朝人类级别智能的冲刺。&/p&&br&&br&&br&&p&&b&&u&强人工智能到超人工智能之路&/u&&/b&&/p&&p&总有一天,我们会造出和人类智能相当的强人工智能电脑,然后人类和电脑就会平等快乐的生活在一起。&/p&&br&&br&&p&呵呵,逗你呢。&/p&&p&即使是&b&一个和人类智能完全一样,运算速度完全一样的强人工智能,也比人类有很多优势:&/b&&/p&&p&&u&硬件上:&/u&&/p&&blockquote&&p&-&b&速度&/b&。脑神经元的运算速度最多是200赫兹,今天的微处理器就能以2G赫兹,也就是神经元1000万倍的速度运行,而这比我们达成强人工智能需要的硬件还差远了。大脑的内部信息传播速度是每秒120米,电脑的信息传播速度是光速,差了好几个数量级。&/p&&br&&p&- &b&容量和储存空间&/b&。人脑就那么大,后天没法把它变得更大,就算真的把它变得很大,每秒120米的信息传播速度也会成为巨大的瓶颈。电脑的物理大小可以非常随意,使得电脑能运用更多的硬件,更大的内存,长期有效的存储介质,不但容量大而且比人脑更准确。&/p&&br&&p&- &b&可靠性和持久性&/b&。电脑的存储不但更加准确,而且晶体管比神经元更加精确,也更不容易萎缩(真的坏了也很好修)。人脑还很容易疲劳,但是电脑可以24小时不停的以峰值速度运作。&/p&&/blockquote&&p&&u&软件上来说&/u&:&/p&&blockquote&&p&- &b&可编辑性,升级性,以及更多的可能性&/b&。和人脑不同,电脑软件可以进行更多的升级和修正,并且很容易做测试。电脑的升级可以加强人脑比较弱势的领域——人脑的视觉元件很发达,但是工程元件就挺弱的。而电脑不但能在视觉元件上匹敌人类,在工程元件上也一样可以加强和优化。&/p&&br&&p&- &b&集体能力&/b&。人类在集体智能上可以碾压所有的物种。从早期的语言和大型社区的形成,到文字和印刷的发明,再到互联网的普及。人类的集体智能是我们统治其它物种的重要原因之一。而电脑在这方面比我们要强的很多,一个运行特定程序的人工智能网络能够经常在全球范围内自我同步,这样一台电脑学到的东西会立刻被其它所有电脑学得。而且电脑集群可以共同执行同一个任务,因为异见、动力、自利这些人类特有的东西未必会出现在电脑身上。&/p&&/blockquote&&br&&p&通过自我改进来达成强人工智能的人工智能,会把“人类水平的智能”当作一个重要的里程碑,但是也就仅此而已了。它不会停留在这个里程碑上的。考虑到强人工智能之于人脑的种种优势,&b&人工智能只会在&/b&&b&“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。 &/b&&/p&&p&这一切发生的时候我们很可能被吓尿,因为从我们的角度来看 a)虽然动物的智能有区别,但是动物智能的共同特点是比人类低很多;b)我们眼中最聪明的人类要比最愚笨的人类要聪明很很很很多。&br&&/p&&img src=&/72fec587eef361cfa5fe56_b.jpg& data-rawwidth=&1376& data-rawheight=&1082& class=&origin_image zh-lightbox-thumb& width=&1376& data-original=&/72fec587eef361cfa5fe56_r.jpg&&&br&&br&&p&所以,当人工智能开始朝人类级别智能靠近时,我们看到的是它逐渐变得更加智能,就好像一个动物一般。然后,它突然达到了最愚笨的人类的程度,我们到时也许会感慨:“看这个人工智能就跟个脑残人类一样聪明,真可爱。”&/p&&p&但问题是,从智能的大局来看,人和人的智能的差别,比如从最愚笨的人类到爱因斯坦的差距,其实是不大的。所以当人工智能达到了脑残级别的智能后,它会很快变得比爱因斯坦更加聪明:&/p&&img src=&/f83a3faebf8cc_b.jpg& data-rawwidth=&1376& data-rawheight=&1124& class=&origin_image zh-lightbox-thumb& width=&1376& data-original=&/f83a3faebf8cc_r.jpg&&&br&&br&&br&&p&之后呢?&/p&&p&&b&&u&智能爆炸&/u&&/b&&/p&&p&从这边开始,这个话题要变得有点吓人了。我在这里要提醒大家,以下所说的都是大实话——是一大群受人尊敬的思想家和科学家关于未来的诚实的预测。你在下面读到什么离谱的东西的时候,要记得这些东西是比你我都聪明很多的人想出来的。&/p&&p&像上面所说的,我们当下用来达成强人工智能的模型大多数都依靠人工智能的自我改进。但是一旦它达到了强人工智能,即使算上那一小部分不是通过自我改进来达成强人工智能的系统,也会聪明到能够开始自我改进。&/p&&p&这里我们要引出一个沉重的概念——&b&递归的自我改进&/b&。这个概念是这样的:一个运行在特定智能水平的人工智能,比如说脑残人类水平,有自我改进的机制。当它完成一次自我改进后,它比原来更加聪明了,我们假设它到了爱因斯坦水平。而这个时候它继续进行自我改进,然而现在它有了爱因斯坦水平的智能,所以这次改进会比上面一次更加容易,效果也更好。第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改进进步更加明显。如此反复,这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平——这就是智能爆炸,也是加速回报定律的终极表现。&/p&&img src=&/8acd2a0b623d27b12d53c2b_b.jpg& data-rawwidth=&800& data-rawheight=&485& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/8acd2a0b623d27b12d53c2b_r.jpg&&&br&&br&&p& 现在关于人工智能什么时候能达到人类普遍智能水平还有争议。对于数百位科学家的问卷调查显示他们认为强人工智能出现的中位年份是2040年——距今只有25年。这听起来可能没什么,但是要记住,很多这个领域的思想家认为从强人工智能到超人工智能的转化会快得多。&b&以下的情景很可能会发生:一个人工智能系统花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的&/b&&b&17万倍。&/b&&/p&&p&这个级别的超级智能不是我们能够理解的,就好像蜜蜂不会理解凯恩斯经济学一样。在我们的语言中,&b&我们把&/b&&b&130的智商叫作聪明,把85的智商叫作笨,但是我们不知道怎么形容12952&/b&&b&的智商,人类语言中根本没这个概念&/b&。&/p&&p&但是我们知道的是,人类对于地球的统治教给我们一个道理——智能就是力量。也就是说,一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。&/p&&p&想一下,如果我们的大脑能够发明Wifi,那么一个比我们聪明100倍、1000倍、甚至10亿倍的大脑说不定能够随时随地操纵这个世界所有原子的位置。那些在我们看来超自然的,只属于全能的上帝的能力,对于一个超人工智能来说可能就像按一下电灯开关那么简单。防止人类衰老,治疗各种不治之症,解决世界饥荒,甚至让人类永生,或者操纵气候来保护地球未来的什么,这一切都将变得可能。同样可能的是地球上所有生命的终结。 &/p&&br&&p&&b&当一个超人工智能出生的时候,对我们来说就像一个全能的上帝降临地球一般。&/b&&br&&/p&这时候我们所关心的就是&br&&img src=&/ef5dd7e94b26_b.jpg& data-rawwidth=&800& data-rawheight=&485& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/ef5dd7e94b26_r.jpg&&&br&&br&&p&这篇文章的第一部分完了,我建议你休息一下,喝点水,下面我们要开始第二部分。&/p&&br&&br&&br&&br&&br&&br&&br&&br&&br&&br&&br&&br&&br&&br&&br&&br&&p&&b&&u&第二部分开始:&/u&&/b&&/p&&br&&p&文章的第一部分讨论了已经在我们日常生活中随处可见的弱人工智能,然后讨论了为什么从弱人工智能到强人工智能是个很大的挑战,然后我们谈到了为什么技术进步的指数级增长表面强人工智能可能并不那么遥远。第一部分的结束,我们谈到了一旦机器达到了人类级别的智能,我们将见到如下的场景:&/p&&br&&br&&br&&img src=&/523a1cd075dadd08e3a9_b.jpg& data-rawwidth=&1376& data-rawheight=&1124& class=&origin_image zh-lightbox-thumb& width=&1376& data-original=&/523a1cd075dadd08e3a9_r.jpg&&&img src=&/e5ea7e1c9d2f3eb4b2213e_b.jpg& data-rawwidth=&1376& data-rawheight=&1124& class=&origin_image zh-lightbox-thumb& width=&1376& data-original=&/e5ea7e1c9d2f3eb4b2213e_r.jpg&&&img src=&/8f6db341e89705b3dddcfcc771c2e313_b.jpg& data-rawwidth=&1376& data-rawheight=&1124& class=&origin_image zh-lightbox-thumb& width=&1376& data-original=&/8f6db341e89705b3dddcfcc771c2e313_r.jpg&&&img src=&/c52b5bc080bc0711eb02fc_b.jpg& data-rawwidth=&1376& data-rawheight=&1124& class=&origin_image zh-lightbox-thumb& width=&1376& data-original=&/c52b5bc080bc0711eb02fc_r.jpg&&&br&&br&&p&这让我们无所适从,尤其考虑到超人工智能可能会发生在我们有生之年,我们都不知道该用什么表情来面对。 &/p&&p&再我们继续深入这个话题之前,让我们提醒一下自己超级智能意味着什么。&/p&&p&很重要的一点是速度上的超级智能和质量上的超级智能的区别。很多人提到和人类一样聪明的超级智能的电脑,第一反应是它运算速度会非常非常快——就好像一个运算速度是人类百万倍的机器,能够用几分钟时间思考完人类几十年才能思考完的东西&/p&&p&这听起来碉堡了,而且&b&超人工智能确实会比人类思考的快很多,但是真正的差别其实是在智能的质量而不是速度上&/b&。用人类来做比喻,人类之所以比猩猩智能很多,真正的差别并不是思考的速度,而是人类的大脑有一些独特而复杂的认知模块,这些模块让我们能够进行复杂的语言呈现、长期规划、或者抽象思考等等,而猩猩的脑子是做不来这些的。&b&就算你把猩猩的脑子加速几千倍,它还是没有办法在人类的层次思考的,它依然不知道怎样用特定的工具来搭建精巧的模型&/b&&b&——&/b&&b&人类的很多认知能力是猩猩永远比不上的,你给猩猩再多的时间也不行&/b&。&/p&&p& 而且人和猩猩的智能差别不只是猩猩做不了我们能做的事情,而是猩猩的大脑根本不能理解这些事情的存在——猩猩可以理解人类是什么,也可以理解摩天大楼是什么,但是它不会理解摩天大楼是被人类造出来的,对于猩猩来说,摩天大楼那么巨大的东西肯定是天然的,句号。对于猩猩来说,它们不但自己造不出摩天大楼,它们甚至没法理解摩天大楼这东西能被任何东西造出来。而这一切差别,其实只是智能的质量中很小的差别造成的。 &/p&&p&而当我们在讨论超人工智能时候,智能的范围是很广的,和这个范围比起来,人类和猩猩的智能差别是细微的。如果生物的认知能力是一个楼梯的话,不同生物在楼梯上的位置大概是这样的:&/p&&br&&img src=&/5e5bdeedd1444edc340493_b.jpg& data-rawwidth=&1037& data-rawheight=&1062& class=&origin_image zh-lightbox-thumb& width=&1037& data-original=&/5e5bdeedd1444edc340493_r.jpg&&&br&&br&&br&&br&&p&要理解一个具有超级智能的机器有多牛逼,让我们假设一个在上图的楼梯上站在深绿色台阶上的一个机器,它站的位置只比人类高两层,就好像人类比猩猩只高两层一样。这个机器只是稍微有点超级智能而已,但是它的认知能力之于人类,就好像人类的认知能力之于猩猩一样。就好像猩猩没有办法理解摩天大楼是能被造出来的一样,人类完全没有办法理解比人类高两层台阶的机器能做的事情。就算这个机器试图向我们解释,效果也会像教猩猩造摩天大楼一般。&/p&&p&而这,只是比我们高了两层台阶的智能罢了,站在这个楼梯顶层的智能之于人类,就好像人类之于蚂蚁一般——它就算花再多时间教人类一些最简单的东西,我们依然是学不会的。&/p&&p&但是我们讨论的超级智能并不是站在这个楼梯顶层,而是站在远远高于这个楼梯的地方。当智能爆炸发生时,它可能要花几年时间才能从猩猩那一层往上迈一步,但是这个步子会越迈越快,到后来可能几个小时就能迈一层,而当它超过人类十层台阶的时候,它可能开始跳着爬楼梯了——一秒钟爬四层台阶也未尝不可。所以让我们记住,当第一个到达人类智能水平的强人工智能出现后,我们将在很短的时间内面对一个站在下图这样很高很高的楼梯上的智能(甚至比这更高百万倍):&/p&&img src=&/9e4bdd4ea5_b.jpg& data-rawwidth=&1250& data-rawheight=&1062& class=&origin_image zh-lightbox-thumb& width=&1250& data-original=&/9e4bdd4ea5_r.jpg&&&br&&br&&br&&p&前面已经说了,试图去理解比我们高两层台阶的机器就已经是徒劳的,所以让我们很肯定的说,我们是没有办法知道超人工智能会做什么,也没有办法知道这些事情的后果。任何假装知道的人都没搞明白超级智能是怎么回事。&/p&&p& 自然演化花了几亿年时间发展了生物大脑,按这种说法的话,一旦人类创造出一个超人工智能,我们就是在碾压自然演化了。当然,可能这也是自然演化的一部分——可能演化真正的模式就是创造出各种各样的智能,直到有一天有一个智能能够创造出超级智能,而这个节点就好像踩上了地雷的绊线一样,会造成全球范围的大爆炸,从而改变所有生物的命运。&/p&&img src=&/d9cd1d5f2732d8dffa92_b.jpg& data-rawwidth=&1190& data-rawheight=&979& class=&origin_image zh-lightbox-thumb& width=&1190& data-original=&/d9cd1d5f2732d8dffa92_r.jpg&&&br&&br&&br&&p&科学界中大部分人认为踩上绊线不是会不会的问题,而是时间早晚的问题。想想真吓人。&/p&&p&那我们该怎么办呢? &/p&&p&可惜,没有人都告诉你踩到绊线后会发生什么。但是人工智能思想家Nick Bostrom认为我们会面临两类可能的结果——永生和灭绝。&/p&&p&首先,回顾历史,我们可以看到大部分的生命经历了这样的历程:物种出现,存在了一段时间,然后不可避免的跌落下生命的平衡木,跌入灭绝的深渊。&/p&&img src=&/cbacf7cd65c8e71c90d6d0c7e340a367_b.jpg& data-rawwidth=&1376& data-rawheight=&879& class=&origin_image zh-lightbox-thumb& width=&1376& data-original=&/cbacf7cd65c8e71c90d6d0c7e340a367_r.jpg&&&br&&br&&br&&p&历史上来说,“所有生物终将灭绝”就像“所有人都会死”一样靠谱。至今为止,存在过的生物中99.9%都已经跌落了生命的平衡木,如果一个生物继续在平衡木上走,早晚会有一阵风把它吹下去。Bostrom把&b&灭绝列为一种吸引态&/b&&b&——所有生物都有坠入的风险,而一旦坠入将没有回头。 &/b&&/p&&p&虽然大部分科学家都承认一个超人工智能有把人类灭绝的能力,也有一些人为如果运用得当,超人工智能可以帮助人类和其它物种,达到&b&另一个吸引态&/b&&b&——&/b&&b&永生&/b&。Bostrom认为物种的永生和灭绝一样都是吸引态,也就是我一旦我们达成了永生,我们将永远不再面临灭绝的危险——我们战胜了死亡和几率。所以,虽然绝大多数物种都从平衡木上摔了下去灭绝了,Bostrom认为平衡木外是有两面的,只是至今为止地球上的生命还没聪明到发现怎样去到永生这另一个吸引态。&/p&&img src=&/e57bbac01f1b03e946f4fb_b.jpg& data-rawwidth=&1376& data-rawheight=&1124& class=&origin_image zh-lightbox-thumb& width=&1376& data-original=&/e57bbac01f1b03e946f4fb_r.jpg&&&br&&br&&br&&br&&br&&p&如果Bostrom等思想家的想法是对的,而且根据我的研究他们确实很可能是对的,那么我们需要接受两个事实: &/p&&blockquote&&p&1)超人工智能的出现,将有史以来第一次,将物种的永生这个吸引态变为可能&/p&&p&2)超人工智能的出现,将造成非常巨大的冲击,而且这个冲击可能将人类吹下平衡木,并且落入其中一个吸引态&/p&&/blockquote&&p&有可能,当自然演化踩到绊线的时候,它会永久的终结人类和平衡木的关系,创造一个新的世界,不管这时人类还是不是存在。&/p&&p&而&b&现在的问题就是:&/b&&b&“我们什么时候会踩到绊线?”以及“从平衡木上跌下去后我们会掉入哪个吸引态?&/b&&b&”&/b&&/p&&p&没人知道答案,但是一些聪明人已经思考了几十年,接下来我们看看他们想出来了些什么。&/p&&p&___________&/p&&p&先来讨论“我们什么时候会踩到绊线?”也就是什么时候会出现第一个超级智能。&/p&不出意外的,科学家和思想家对于这个意见的观点分歧很大。很多人,比如Vernor Vinge教授,科学家Ben Goertzel,SUN创始人Bill Joy,发明家和未来学家Ray Kurzweil,认同机器学习专家Jeremy Howard的观点,Howard在TED演讲时用到了这张图:&br&&img src=&/93dc13ac8e916bfdbb73c0_b.jpg& data-rawwidth=&1448& data-rawheight=&889& class=&origin_image zh-lightbox-thumb& width=&1448& data-original=&/93dc13ac8e916bfdbb73c0_r.jpg&&&br&&br&&p&这些人相信超级智能会发生在不久的将来,因为指数级增长的关系,虽然机器学习现在还发展缓慢,但是在未来几十年就会变得飞快。&/p&&p&其它的,比如微软创始人Paul Allen,心理学家Gary Marcus,NYU的电脑科学家Ernest Davis,以及科技创业者Mitch Kapor认为Kurzweil等思想家低估了人工智能的难度,并且认为我们离绊线还挺远的。&/p&&p&Kurzweil一派则认为唯一被低估的其实是指数级增长的潜力,他们把质疑他们理论的人比作那些1985年时候看到发展速度缓慢的因特网,然后觉得因特网在未来不会有什么大影响的人一样。&/p&&p&而质疑者们则认为智能领域的发展需要达到的进步同样是指数级增长的,这其实把技术发展的指数级增长抵消了。&/p&&p&争论如此反复。&/p&&p&第三个阵营,包括Nick Bostrom在内,认为其它两派都没有理由对踩绊线的时间那么有信心,他们同时认为 a) 这事情完全可能发生在不久的未来 b)但是这个事情没个准,说不定会花更久&/p&&p&还有不属于三个阵营的其他人,比如哲学家Hubert Dreyfus,相信三个阵营都太天真了,根本就没有什么绊线。超人工智能是不会被实现的。&/p&&p&当你把所有人的观点全部融合起来的话是怎样呢?&/p&&p&2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲观估计(有90%可能达成)。当把大家的回答统计后,得出了下面的结果:&/p&&blockquote&&p&乐观估计中位年(强人工智能有10%的可能在这一年达成):2022年&/p&&p&正常估计中位年(强人工智能有50%的可能在这一年达成):2040年&/p&&p&悲观估计中位年(强人工智能有90%的可能在这一年达成):2075年&/p&&/blockquote&&p&所以一个中位的人工智能专家认为25年后的2040年我们能达成强人工智能,而2075年这个悲观估计表明,&b&如果你现在够年轻,有一半以上的人工智能专家认为在你的有生之年能够有&/b&&b&90%&/b&&b&的可能见到强人工智能的实现&/b&。 &/p&&p&另外一个独立的调查,由作家James Barrat在Ben Goertzel的强人工智能年会上进行,他直接问了参与者认为强人工智能哪一年会实现,选项有2030年,2050年,2100年,和永远不会实现。结果是: &/p&&blockquote&&p&2030年:42%的回答者认为强人工智能会实现&/p&&p&2050年:25%的回答者&/p&&p&2100年:20%&/p&&p&2100年以后:10%&/p&&p&永远不会实现:2%&/p&&/blockquote&&p&这个结果和Bostrom的结果很相似。在Barrat的问卷中,有超过三分之二的参与者认为强人工智能会在2050年实现,有近乎半数(42%)的人认为未来15年(2030年)就能实现。并且,只有2%的参与者认为强人工智能永远不会实现。&/p&&p&但是强人工智能并不是绊线,超人工智能才是。那么专家们对超人工智能是怎么想的呢?&/p&&p&Bostrom的问卷还询问专家们认为达到超人工智能要多久,选项有a)达成强人工智能两年内,b)达成强人工智能30年内。问卷结果如下:&/p&&p&中位答案认为强人工智能到超人工智能只花2年时间的可能性只有10%左右,但是30年之内达成的可能性高达75%&/p&&p&从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年达成超人工智能——也就是踩上了绊线。&/p&&img src=&/9aa2f21cb6b1a72f430b8a893ae5b010_b.jpg& data-rawwidth=&1376& data-rawheight=&718& class=&origin_image zh-lightbox-thumb& width=&1376& data-original=&/9aa2f21cb6b1a72f430b8a893ae5b010_r.jpg&&&br&&br&&br&&p&当然,以上所有的数据都是推测,它只代表了现在人工智能领域的专家的中位意见,但是它告诉我们的是,&b&很大一部分对这个领域很了解的人认为&/b&&b&2060年是一个实现超人工智能的合理预测——距今只有45年。&/b&&/p&&p&那么我们来看一下下一个问题,踩到绊线后,我们将跌向平衡木的哪一个方向?&/p&&p&超级智能会产生巨大的力量,所以关键的问题时——到时这股力量究竟由谁掌握,掌握这份力量的人会怎么做?&/p&&p&这个问题的答案将决定超人工智能究竟是天堂还是地狱。&/p&&p&同样的,专家们在这个问题上的观点也不统一。Bostrom的问卷显示专家们看待强人工智能对于人类社会的影响时,52%认为结果会是好或者非常好的,31%认为会是糟糕的或者非常糟糕的,只有17%的人认为结果会是不好不坏的。也就是说,这个领域的专家普遍认为这将是一个很大的事情,不论结果好坏。要注意的是,这个问题问的是强人工智能,如果问的是超人工智能,认为结果不好不坏的人可能不会有17%这么多。&/p&&p&在我们深入讨论好坏这个问题之前,我们先把“什么时候会发生”和“这是好事还是坏事”的结果综合起来画张表,这代表了大部分专家的观点:&/p&&img src=&/f88adf26adcd6_b.jpg& data-rawwidth=&1100& data-rawheight=&1865& class=&origin_image zh-lightbox-thumb& width=&1100& data-original=&/f88adf26adcd6_r.jpg&&&br&&br&&br&&p&我们等下再考虑主流阵营的观点。咱们先来问一下你自己是怎么想的,其实我大概能猜到你是怎么想的,因为我开始研究这个问题前也是这样的想的。很多人其实不关心这个话题,原因无非是:&/p&&p&像本文第一部分所说,电影展示了很多不真实的人工智能场景,让我们认为人工智能不是正经的课题。作家James Barrat把这比作传染病控制中心发布吸血鬼警报一样滑稽。&/p&&p&因为认知偏差,所以我们在见到证据前很难相信一件事情是真的。我确信1988年的时候电脑科学家们就已经常在讨论因特网将是多么重要,但是一般人并不会认为因特网会改变他们的生活——直到他们的生活真的被改变了。一方面,1988年的电脑确实不够给力,所以那时的人们看着电脑会想:“这破玩意儿也能改变我的生活,你逗我吧?”人们的想象力被自己对于电脑的体验而约束。让他们难以想象电脑会变成现在的样子。同样的事情正发生在人工智能领域。我们听到很多人说人工智能将会造成很大影响,但是因为这个事情还没发生,因为我们和一些弱爆了的人工智能系统的个人经历,让我们难以相信这东西真的能改变我们的生活。而这些认知偏差,正是专家们在努力对抗的。 &/p&&p&就算我们相信人工智能的巨大潜力,你今天又花了多少时间思考“在接下来的永恒中,绝大部分时间我都不会再存在”这个问题?虽然这个问题比你今天干的大部分事情都重要很多,但是正常人都不会老是想这个吧。这是因为你的大脑总是关注日常的小事,不管长期来看有多少重要的事情,我们天生就是这么思考的。&/p&&p&这篇东西的主要目标就是让你脱离普通人阵营,加入专家思考的阵营,哪怕能让你站到两条不确定线的交点上,目标也达到了。&/p&&p&在我的研究中,我见识到了各种各样的观点,但是我发现大多数人的观点都停留在主流阵营中。事实上&b&超过四分之三的专家都属于主流阵营中的两个小阵营&/b&:&b&焦虑大道和信心角&/b&&/p&&img src=&/4b762bfbb79cb44ee36937_b.jpg& data-rawwidth=&797& data-rawheight=&787& class=&origin_image zh-lightbox-thumb& width=&797& data-original=&/4b762bfbb79cb44ee36937_r.jpg&&&br&&br&&br&&p&我们将对这两个小阵营做深入的谈论,让我们从比较有趣的那个开始吧&/p&&p&&b&&u&为什么未来会是天堂&/u&&/b&&/p&&p&研究人工智能这个领域后,我发现有比预期的多得多的人站在信心角当中:&/p&&img src=&/11deabbbf9e9ad9c5b3955_b.jpg& data-rawwidth=&797& data-rawheight=&787& class=&origin_image zh-lightbox-thumb& width=&797& data-original=&/11deabbbf9e9ad9c5b3955_r.jpg&&&br&&br&&p&站在信心角中的人非常兴奋,他们认为他们将走向平衡木下比较有趣的那个吸引态,未来将实现他们的梦想,他们只需耐心等待。&/p&&p&把这一部分人从其他思想家区分开来的是这些人对于比较有趣的那个吸引态的欲望——他们很有信心永生是我们的发展方向。&/p&&p&这份信心是哪里来的不好说,评论家认为是这些人太过兴奋而产生了盲点,忽略了可能的负面结果。但是信心角的人还是把批评者当作末日论者来看待,他们认为技术会继续帮助我们而不是伤害我们。&/p&&p&两边的观点我们都会说,这样你能形成自己的观点,但是在读下面的内容前,请把质疑暂时搁置,让我们看看平衡木两边究竟有什么,并且记住这些事情是有可能发生的。如果我们给一个打猎采集者看我们现在的舒适家居、技术、富庶,在他眼里这一切也会像魔法一样——我们也要接受未来完全可能出现能把我们吓尿的变革。&/p&&br&&p&Bostrom描述了三种超人工智能可能的工作模式&/p&&blockquote&&p&&b&-
&/b&&b&先知模式&/b&:能准确回答几乎所有的问题,包括对人类来说很困难的复杂问题,比如“怎样造一个更好的汽车引擎?”&/p&&br&&p&&b&-
&/b&&b&精灵模式&/b&:能够执行任何高级指令,比如用分子组合器造一个更好的汽车引擎出来&/p&&br&&p&&b&-
独立意志模式(sovereign):&/b&可以执行开放式的任务,能在世界里自由活动,可以自己做决定,比如发明一种比汽车更快、更便宜、更安全的交通模式。&/p&&/blockquote&&p&这些对人类来说很复杂的问题,对于一个超级智能来说可能就像“我的笔掉了,你能帮我捡一下吗?”这么简单。&/p&&br&&p&Eliezer Yudkowsky,是这么说的:&/p&&blockquote&“根本没有困难的问题,只有对于特定级别的智能来说难的问题。在智能的阶梯上走一小步,一些不可能的问题就变得简单了,如果走一大步,所有问题都变得简单了。”&/blockquote&&br&&p&信心角里有很多热忱的科学家、发明家和创业者,但是对于人工智能的未来最有发言权的,当属Ray Kurzweil.&/p&&br&&p&对于Kurzweil的评价非常两极化,既有如对神人般的崇拜,也有翻白眼似的不屑。也有一些中立主义者,比如作家Douglas Hofstadter,他觉得Kurzweil的观点就好像把美食和狗屎混在一起,让你分不清是好是坏。&/p&&br&&p&不管你同不同意Kurzweil的观点,他都是一个牛人。他年轻时候就开始搞发明,之后几十年发明了很多东西,比如第一台平板扫描仪,第一台能把文字转化为语言的扫描仪(盲人使用),著名的Kurzweil音乐合成器(第一台真正意义上的电子钢琴),以及第一套商业销售的语音识别系统。他是五本畅销书的作者。他很喜欢做大胆的预测,而且一直很准,比如他80年代末的时候预测到2000年后因特网会成为全球级的现象。他被《华尔街日报》成为“不休的天才”,被《福布斯》称为“终极思想机器”,被《Inc.》称作“爱迪生真正的传人”,被比尔盖茨称为“我认识的对人工智能预测最厉害的人。”2012年谷歌创始人Larry Page曾邀请他担任谷歌的工程总监,2011年他共同创立了奇点大学(Singularity University),现在大学由美国太空总署运运营,由谷歌赞助。&/p&&p&Kurzweil的经历很重要,因为当他讲述自己对未来的愿景时,他听起来就是个疯子,但是他不疯,恰恰相反,他非常聪明而有知识。你可能觉得他对于未来的想法是错的,但是他不傻。知道他是一个聪明人让我很开心,因为当我知道他对未来的预测后,我急切的很希望他的预测是对的。信心角中的很多思想家都认同Kurzweil的预测,他也有很多粉丝,被称为奇点主义者。&/p&&br&&p&&strong&&u&时间线&/u&&/strong&&/p&&p&&b&Kurzweil相信电脑会在2029年达成强人工智能,而到了2045&/b&&b&年,我们不但会有超人工智能,还会有一个完全不同的世界——奇点时代&/b&。他的人工智能时间线曾经被认为非常的狂热,现在也还是有很多人这么认为,但是过去15年弱人工智能的快速发展让更多的专家靠近了Kurzweil的时间线。虽然他的时间线比之前提到的2040年和2060年更加早,但是并没有早多少。&/p&&br&&p&Kurzweil的奇点时代是三个技术领域的共同革命造成的——生物技术、纳米技术和最重要的人工智能技术。&/p&&br&&p&在我们继续讨论人工智能前,让我们谈一下纳米技术这个任何关于人工智能的讨论都会涉及到的领域&/p&&br&&br&&blockquote&&p&&strong&&u&纳米技术&/u&&/strong&&/p&&p&纳米技术说的是在1-100纳米的范围内操纵物质的技术。一纳米是一米的十亿分之一,是一毫米的一百万分之一。1-100纳米这个范围涵盖了病毒(100纳米长),DNA(10纳米宽), 大分子比如血红蛋白(5纳米),和中分子比如葡萄糖(1纳米)。当我们能够完全掌握纳米技术的时候,我们离在原子层面操纵物质就只差一步了,因为那只是一个数量级的差距(约0.1纳米)。&/p&&br&&p&要了解在纳米量级操纵物质有多困难,我们可以换个角度来比较。国际空间站距离地面431公里。如果一个人身高431公里,也就是他站着能够顶到国际空间站的话,他将是普通人类的25万倍大。如果你把1-100纳米放大25万倍,你算出的是0.25毫米-25毫米。所以&b&人类使用纳米技术,就相当于一个身高&/b&&b&431&/b&&b&公里的巨人用沙子那么大的零件搭精巧的模型&/b&。如果要达到原子级别操纵物质,就相当于让这个431公里高的巨人使用0.025毫米大的零件。&/p&&br&&p&关于纳米技术的思考,最早由物理学家费曼在1959年提出,他解释道:“据我所知,物理学的原理,并不认为在原子级别操纵物质是不可能的。原则上来说,物理学家能够制造出任何化学家能写出来的物质——只要把一个个原子按照化学家写出来的放在一起就好了。”其实就是这么简单,所以我们只要知道怎样移动单个的分子和原子,我们就可以造出任何东西。&/p&&br&&p&工程师Eric Drexler提出纳米级组装机后,纳米技术在1986年成为了一门正经的学科。纳米级组装机的工作原理是这样的:一个牛逼扫描仪扫描物件的3D原子模型,然后自动生成用来组装的软件。然后由一台中央电脑和数万亿的纳米“机器人”,通过软件用电流来指挥纳米机器人,最后组成所需要的物件。&/p&&p&--------------------------&/p&&p&&i&&strong&再扯远一点&/strong&&br&纳米技术有一些不是那么有趣的部分——能够制造数万亿的纳米机器人唯一合理的方法就是制造可以自我复制的范本,然后让指数级增长来完成建造任务。很机智吧?&/i&&/p&&p&&i&&br&是很机智,但是这一不小心就会造成世界末日。指数级增长虽然能很快的制造数万亿的纳米机器人,但这也是它可怕的地方——如果系统出故障了,指数级增长没有停下来,那怎么办?纳米机器人将会吞噬所有碳基材料来支持自我复制,而不巧的是,地球生命就是碳基的。地球上的生物质量大概包含10^45个碳原子。一个纳米机器人有10^6个碳原子的话,只需要10^39个纳米机器人就能吞噬地球上全部的生命了,而2^130约等于10^39,也就是说自我复制只要进行130次就能吞噬地球生命了。&b&科学家认为纳米机器人进行一次自我复制只要&/b&&b&100秒左右,也就是说一个简单的错误可能就会在3.5小时内毁灭地球上全部的生命。&/b&&br&&br&更糟糕的是,如果恐怖分子掌握了纳米机器人技术,并且知道怎么操纵它们的话,他可以先造几万亿个纳米机器人,然后让它们散播开来。然后他就能发动袭击,这样只要花一个多小时纳米机器人就能吞噬一切,而且这种攻击无法阻挡。未来真的是能把人吓尿的。&/i&&br&&/p&&br&------------------------&br&&br&&p&等我们掌握了纳米技术后,我们就能用它来制造技术产品、衣服、食物、和生物产品,比如人造红细胞、癌症细胞摧毁者、肌肉纤维等等。而在纳米技术的世界里,一个物质的成本不再取决于它的稀缺程度或是制造流程的难度,而在于它的原子结构有多复杂。在纳米技术的时代,钻石可能比橡皮擦还便宜。&/p&&br&&p&我们还没掌握这种技术,我们甚至不知道我们对于达成这种技术的难度是高估了还是低估了,但是我们看上去离那并不遥远。Kurzweil预测我们会在21世纪20年代掌握这样的技术。各国政府知道纳米技术将能改变地球,所以他们投入了很多钱到这个领域,美国、欧盟和日本至今已经投入了50亿美元。&/p&&br&&p&设想一下,一个具有超级智能的电脑,能够使用纳米级的组装器,是种什么样的体验?要记得纳米技术是我们在研究的玩意儿,而且我们就快掌握这项技术了,而我们能做的一切在超人工智能看来就是小儿科罢了,所以我们要假设超人工智能能够创造出比这要发达很多很多的技术,发达到我们的大脑都没有办法理解。&/p&&/blockquote&&p&因此,当考虑“如果人工智能革命的成果对我们是好的”这个命题的时候,要记得我们根本没法高估会发生什么。所以就算下面对于超人工智能的预测显得太不靠谱,要记得这些进展可能是用我们没有办法想象的方法达成的。事实上,我们的大脑很可能根本没法预测将会发生什么。&/p&&p&----------------&/p&&br&&br&&p&&strong&&u&人工智能能为我们做什么&/u&&/strong&&/p&&br&&br&&img src=&/a7bfe6baa0406_b.jpg& data-rawwidth=&400& data-rawheight=&566& class=&content_image& width=&400&&&br&&br&&br&&p&拥有了超级智能和超级智能所能创造的技术,超人工智能可以解决人类世界的所有问题。气候变暖?超人工智能可以用更优的方式产生能源,完全不需要使用化石燃料,从而停止二氧化碳排放。然后它能创造方法移除多余的二氧化碳。癌症?没问题,有了超人工智能,制药和健康行业将经历无法想象的革命。世界饥荒?超人工智能可以用纳米技术直接搭建出肉来,而这些搭建出来的肉和真肉在分子结构上会是完全相同的——换句话说,就是真肉。&/p&&p&纳米技术能够把一堆垃圾变成一堆新鲜的肉或者其它食品,然后用超级发达的交通把这些食物分配到世界各地。这对于动物也是好消息,我们不需要屠杀动物来获得肉了。而超人工智能在拯救濒危物种和利用DNA复活已灭绝物种上面也能做很多事情。超人工智能甚至可以解决复杂的宏观问题——我们关于世界经济和贸易的争论将不再必要,甚至我们对于哲学和道德的苦苦思考也会被轻易的解决。&/p&&br&&p&但是,有一件事是如此的吸引人,光是想想就能改变对所有事物的看法了:&/p&&img src=&/53ba34cf1fae8dd0c5a2c2_b.jpg& data-rawwidth=&800& data-rawheight=&485& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/53ba34cf1fae8dd0c5a2c2_r.jpg&&&br&&br&&p&几个月前,我提到我很羡慕那些可能达成了永生的文明。但是,现在,我已经在认真的考虑达成永生这个事情很可能在我们有生之年就能达成。研读人工智能让你重新审思对于所有事情的看法,包括死亡这一很确定的事情。&/p&&br&&p&自然演化没有理由让我们活得比现在更长。对于演化来说,只要我们能够活到能够生育后代,并且养育后代到能够自己保护自己的年纪,那就够了——对演化来说,活30多岁完全够了,所以额外延长生命的基因突变并不被自然选择所钟爱。这其实是很无趣的事情。&/p&&br&&p&而且因为所有人都会死,所以我们总是说“死亡和缴税”是不可避免的。我们看待衰老就像看待时间一样——它们一直向前,而我们没有办法阻止它们。&/p&&br&&p&但是这个假设是

我要回帖

更多关于 酷讯网特价机票查询 的文章

 

随机推荐