人工智能概念股的革命:道德可以被编程么

人类真的需要为打败李世石的人工智能担忧么
[摘要]笔者每次和手机里的中国象棋对弈,战败率几乎是99%,但是这并不能代表什么。
腾讯数码精选优质自媒体文章,文中所述为作者独立观点,不代表腾讯数码立场。这两天以来,韩国棋王李世石大战谷歌人工智能系统AlphaGo的消息正在被全球广泛关注。朋友圈里广告狗们借着这一事件大肆营销,大量小白则是不明觉厉地围观狂欢,还有部分群体则是发出感慨,李世石被完虐,人类该怎么办?当然,还有一些大佬冷眼旁观,称这场比赛存在公关成分,只不过是谷歌的一场商业秀。商业秀也好,借势营销也好,AlphaGo在两场比赛中战胜李世石已经是不可否认的事实。五天的比赛虽然还没结束,但是却在伦理道德、在人的地位、人工智能的地位等层面上引发了大量争议。AlphaGo战胜李世石,人类改造自然的进一步提升谷歌人工智能系统AlphaGo和围棋选手李世石对弈的消息其实并不新鲜。因为,早在1997年,IBM的“深蓝”超级计算机就以2胜1负3平战胜了当时世界排名第一的国际象棋大师卡斯帕罗夫。李世石对弈AlphaGo,这只不过是人机大战的一次重演。只不过,这次的选手是加上了“人工智能”这个定语,而围棋这种游戏不同于国际象棋。象棋子力少,各种棋子有固定的走子方法。围棋带有感性成分,围棋棋子多、变化多,纵横十九路,自古就有千古不同局一说。总体而言,围棋更考验人的心理、思维。对于机器而言,也更难学习。所以,曾有人说,在围棋盘上,机器永远不可能战胜人类。但是,在这项掺有东方人文化自豪的智力游戏中,李世石连续两场都输给了人工智能。第一场双方各有失误,但后期李世石心理出现了波动,失误也明显增多,以至节节败退,最终输掉了比赛。而在第二场,AlphaGo从序盘阶段就不按常理落子,不断下出罕见变招。在第二场再输之后,有朋友说,接下来三场李世石必败无疑。因为AlphaGo自我学习的速度非常快,每过三天,它就可以100%打败三天前的自己。能自己打败自己,自己像人一样进步,已经不是简单拼运算量的初级人工智能了。其实在李世石输掉第一场比赛之后,朋友圈便很快分成了两派。一派认为,人类需要为人工智能担忧,人工智能将会取代人类,因为人工智能一旦具备了自我意识的能力,会反抗人类;而另一派则比较乐观,认为现代的智能设备不可能具备自我意识的能力,所谓的人工智能只是人类制造出来的,模拟人脑的算法。而且,AlphaGo战胜李世石这一事件更乐观来看的话,其实是人类改造自然能力的进一步提升,人工智能只是人类的工具,所以根本无需担忧。百度谷歌所谋之事,只是取代工作而非取代人类人类是否要为人工智能担忧?这个问题确实比较复杂。其实,上述两派观点都是有道理的。但是,从目前来看,人工智能只是会取代人类的工作,而非取代人类本身。作为生产力进步过程中的代表,人工智能必然会取代大量人类的工作。罗辑思维创始人罗振宇曾经在一次节目中谈到“技术性失业”这个概念。也就是说,放在人类历史发展的空间来看,越来越多的工作是会随着技术的进步而逐渐消失在历史长河中的,越来越多的人也会被机器所取代。今年春节时,曾和三个朋友讨论父母过去的职业。当时我们惊奇地发现,90年代初,我们的母亲都曾被送到技校去学习缝纫技术,职业规划是裁缝。然而,现如今,我们母亲的职业路径与当年的选择毫无关系。一台缝纫机一个小店的职业形态几乎已经消亡,这种形态早已经被大规模的工业生产所取代。这大概也就是罗振宇说的“技术型失业”吧。这种理论在经济学家凯恩斯的经济理论中也有体现。在凯恩斯看来,在经济增长过程中,技术进步的必然趋势是生产中越来越广泛地采用了资本、技术密集性技术,越来越先进的设备替代了工人的劳动,这样,对劳动需求的相对减小就会使失业增加。人工智能取代人类的工作,这种场景只不过是过去无数次生产工具进步取代人类的一次重演。也就是说,人工智能肯定会取代很多人类的工作,哪怕是需要智力的工作。百度首席科学家吴恩达对此认为,人工智能发展,未来最大的挑战在于可能带来一部分人失业。比如说,美联社在去年就已经引入了机器人分析财报,撰写日常消息稿件。再比如说翻译,以及大量的医学技术资料的处理、法律文书的处理等。这些都可以由人工智能来完成。计算机正在呈现出越来越强悍的对人工的替代能力。百度机器翻译技术已经实现了高负荷翻译需求,通过深度语义分析和翻译技术。未来新闻发布会上做同声传译的那些高级知识分子很可能要面临失业的局面。不仅如此,像百度、谷歌、微软这样的公司还在尝试一些更加大胆的变革。百度建立了全球首家深度学习(DeepLearning)研究院,吸纳了众多全球顶尖专家,建成了全球最大的深度神经网络“百度大脑”,融合深度学习算法、数据建模、大规模GPU并行化平台等技术,进行实时学习和成长,其中200亿个参数构成了一套巨大的深度神经网络。该实验室目前主要研发方向为:语音识别、图像识别、imageQ&A、自动驾驶技术等。在具体案例上的落地,则包括语音搜索、无人驾驶汽车等等。比如用户使用手机百度上的语音搜索说“附近有什么饭店”它就会非常听话的给你推荐附近的美食餐厅,当你继续说,“附近哪家最好吃”,它更加精准为你提供用户好评度高的答案和附近餐饮的服务,这样说来,百度语音搜索支持多轮问答模式。同时,当你使用语音搜索“北京天气”等不同场景下的问题,系统也会为你提供相关答案。总体说来,百度语音搜索提供的是多场景和多轮对话的服务,其背后所蕴含的,一是在一定封闭规则下的强大的计算能力,另一个则是对人类开放语义的理解和应答能力。基于这些能力,未来人工智能够完成事情只会越来越多。更加智能的无人驾驶汽车则是通过人工智能、数据地图、联网技术来发展自动驾驶技术。有一种夸张说法是,未来人工驾驶可能会是非法的,中国各条街道上会出现百度的无人驾驶汽车的场景。因为人工智能汽车的计算能力更强,反应速度更快,不但能识别高精地图准确定位,辨别道路上相关信息做出恰当反应,还会每天海量观看各种路况监控视频和驾驶相关视频,当他学习了足够多第一视角驾驶信息,甚至可以成为超级驾驶员,能力超越所有职业赛车手,这样车祸率也便随之降低。那除了无人驾驶呢?按照百度大脑的规划,未来还将在医疗、教育等更多行业落地。那么,是不是教师这个职业也会被人工智能教师所取代?交警也会被人工智能的电子眼所取代?这一趋势无法想象。但是,不得不承认,人工智能取代人类工作岗位未来会成为不可避免的浪潮。人工智能取代人类工作岗位将会成为实实在在的现象。你必须承认,几乎没有一个职业领域会是绝对安全的,甚至这种浪潮还在加剧。但是乐观一些去看,会发现,随着技术的进步,大量新职业也被开发出来。如果能把握住新的职业岗位,也不失为一条出路。比如说,今天的程序员这在过去工业时代从来都是不存在的。也就是说,随着人工智能的进步,大量相关的工作同样会被释放出来。未来可能会出现专门驾驭人工智能的一批人,像是百度大脑计划中的那些30岁左右的年轻人。虽然目前来看,这种人才还处于高精尖的阶段,但随着人工智能的普及,这种情况在未来可能会越来越多。也正是如此,人类还是无需过度担忧。无需畏惧人工智能,不如去享受百度所说的奇点时代斯蒂芬·霍金和埃隆·马斯克都对人工智能表示担忧,他们都认为随着人工智能技术的进步,机器人能够变得非常聪明,以至于这些机器人可以自主决定是否要消灭人类。或许这些大佬的话有道理,但回到这场围棋大战本身来说,人机大战本身无需过度解读。离深蓝战胜卡斯帕罗夫已经过去了19年。19年间,人类依旧很好地生活在地球上。甚至打一个不恰当的比喻,笔者每次和手机里的中国象棋对弈,战败率几乎是99%,但是这并不能代表什么。因为手机依旧握在笔者手里,笔者依旧是拿着手机与世界进行连接,手机很好地辅助笔者从事各项工作。笔者依旧主张,用历史的角度来思考人工智能。人工智能只是生产工具,人类在长期的历史长河中,生产工具都有着大量的进步,人类正是伴随着这些工具的升级,改造世界的能力不断取得进步。人工智能等技术取代人类工作这样的现象是逐步的,人工智能却不会取代人类。其实,我们要乐于接受人工智能带来的技术进步。笔者认为,百度将有可能成为引领奇点的先锋军。畅想一下,未来你可以和人工智能机器人分享心事,你可以在更加安全的无人驾驶汽车上处理工作,你还可以在人工智能调节温度、湿度、空气质量的房间里享受生活,这样的未来不是更美好吗?或许真的到了那一天时,我们要对人工智能说,Hi!欢迎你带我来到奇点时代!
[责任编辑:miyaliu]
还能输入140字
Copyright & 1998 - 2016 Tencent. All Rights Reserved<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN"
您的访问请求被拒绝 403 Forbidden - ITeye技术社区
您的访问请求被拒绝
亲爱的会员,您的IP地址所在网段被ITeye拒绝服务,这可能是以下两种情况导致:
一、您所在的网段内有网络爬虫大量抓取ITeye网页,为保证其他人流畅的访问ITeye,该网段被ITeye拒绝
二、您通过某个代理服务器访问ITeye网站,该代理服务器被网络爬虫利用,大量抓取ITeye网页
请您点击按钮解除封锁&对人工智能这四大误解,必须要澄清--百度百家
对人工智能这四大误解,必须要澄清
分享到微信朋友圈
任何文明、任何时间,人类都有各种各样人工智能的概念。但直到现在它们才更加真实地正在或即将出现在我们面前,但由于各种限制,我们对其有或多或少的偏见,在2015年的最后一天,我们一起消除偏见,拥抱崭新的2016!
从杀人机器到智能失控,关于人工智能,要澄清的问题实在太多了!
非人类智能可以追溯到非常久远的人类史前时代。随着时间的改变,人类关于非人类智能的探索也从神魔鬼怪逐渐过渡到了魔法般的技术之上。古希腊神话之中有许多神或人类发明制造的机器人;同时,根据安提凯希拉(Antikythera)历法计算机等历史文物推断,人类在公元前200年就已经能设计出有使用价值的类人类智力的工作机制了。
任何文明、任何时间,人类都有各种各样的人工智能(AI)的概念。但直到现在,我们的人工智能技术才真正有可能超越人类的思维能力,而且我们还将真真切切地实现它。但是,我们对事物的理解和观念都受到了自身文化背景的影响;因此,在这些文化背景下的我们对人工智能也必然存在或多或少的偏见。
这些偏见多半是错的:在库布里克导演的电影《2001太空漫游》中,HAL 9000远远超过训练有素的宇航员的思维能力最终导向了谋杀。相对而言比尔o盖茨推出的Office助手大眼夹就要容易对付得多了。
如今人工智能已经发展成了一个价值数十亿美元的产业,而且还在不断向我们的手机、企业和家庭渗透。现在是时候澄清一些最重要的关于人工智能的误解了;事实真相到底又是什么呢?
误解一:人工智能就只是为了制造能够思考的机器
上世纪中期,当数字计算第一次成为现实的时候,人们对人工智能在短期内实现同样的目标给予了厚望。阿兰o图灵在其1948年的著名论文《智能机器》中就对这一概念进行了详细的阐释,他认为在20世纪末就将出现可工作的思考机器,对此没有人提出异议。那时科幻作家艾萨克o阿西莫夫虚构出了计算机Multivac,那是一台比1951年美国人口普查局使用的UNIVAC 1更大更智能的计算机。(之后美国人口普查局和IBM建立了合作,IBM将其第一台击败人类象棋手的计算机命名为「深蓝」(Deep Blue),这个名字的灵感来源于科幻作家道格拉斯o亚当斯的《银河系漫游指南》中的超智能计算机「深思」(Deep Thought),小说中正是这台计算机给出了宇宙终极问题的答案:42。)
为了能够复制类人的思维,人们提出了各种各样的项目和研究,其中大部分都是通过硬件和软件对新技术揭示出的人脑结构和功能进行模拟。其中瑞士洛桑联邦理工学院(EPFL)大脑与心智研究所的「蓝脑」(Blue Brain)计划拥有较高的知名度;该计划起始于2005年,并计划在2023年之前搭建出一个基本等同于人脑模式的工作模型。
任何大脑模拟器都面临着两个主要问题。首先人脑其实是非常复杂的,拥有大约1000亿个神经元和1000万亿突触连接。这些连接都不是数字连接,它们依赖于具有互相关联的时序的电化学信号和模拟组件;其中的分子和生物学机制我们才刚刚开始懂点皮毛。
即使简单一点的大脑都依然神秘难解。蓝脑计划最近取得的具有里程牌意义的进展是年初时,研究人员成功在一只小鼠大脑中的一个包含了30000个神经元的区域复制了活的啮齿动物大脑中的信号。对哺乳动物来说,30000个神经元只是大脑的一点皮毛。而随着神经元数量和突触连接的增加,模拟的复杂程度也将指数式增加——以至于没法使用现有的技术手段进行处理。
而这又引出了大脑模拟需要面临的另一个问题:目前还没有任何一个完备的理论能解释「思维」到底是什么。
定义「思维」是人工智能技术最底层的问题,同时也是最难的问题之一。解决了这一问题之后,我们得到的人工智能被称为「强人工智能」(strong AI)。商用人工智能业内人士大多并不相信强人工智能能在短期内实现,或者并不认为强人工智能是必要的或能够带来实际利益。但毫无疑问,人工智能现在已经开始在从事非常有意义的工作了,而且还将继续进入更多的技术和工作领域;但要具备全面的感知能力,似乎依然还遥不可及。
IBM的沃森超级计算机可以说是目前最引人瞩目的人工智能成功应用的典范,其在美国电视游戏节目Jeopardy上的优异表现让人叹为观止。它通过自然语言处理和大量专家处理过程的结合,尝试不同的策略将内部知识数据库和潜在的答案进行匹配;然后再对其内部专家过程的置信度进行检测,如果置信度足够高,那么沃森就会选择回答这一问题。
沃森的第一个真正严肃的应用是作为癌症医学辅助诊断手段。从2011年开始,沃森就一直在协助肿瘤科医生,它能够对病人的病历进行深入的分析,并且还能将该病历和存储的其它来源的相关病历、临床专业知识和学术研究进行比对和筛选;这使得沃森甚至能够自行推导出连医生自己也未曾考虑过的治疗方案。
泰国康民国际医院首席医疗信息官Dr. James Miser说:「就像是有了一个有能力又有知识的同事,它能查看已有的信息并且将其和我的病人对应起来。它很快很彻底,并且对已有证据在我正在治疗的独特案例上的应用有着不可思议的理解能力。」
听起来真是奇妙,而这就已经突出展现了现有的具有应用范围限制的应用型人工智能和强人工智能之间的区别。这两种人工智能的都具有类似的基本结构:神经网络。神经网络是一个基于生物学的概念,其主要的功能是将输入或尝试与该神经网络之前已经接触过的信息进行比对和匹配。其中的关键概念是神经网络并没有一个预先设置的分析方式,而是通过前期给定和输入和正确的输出对解决方案进行校正,然后调整配置出一条自己的计算路径以供之后的未知输入使用。
现在,沃森和Facebook的DeepFace面部识别系统这样的「弱人工智能」已经能够通过特定领域的有限数据集做到这一点了,但要它们超越自己的被编程领域自行完成其它领域的工作依然比登天还难。
谷歌就在弱人工智能上玩得风生水起。它推出了能够根据内容、环境和科学数据进行图片搜索的应用以及风靡全球的机器翻译应用。而在强人工智能的研究上,谷歌却鲜有成绩。人脑可以发现和利用定义不明确的数据模式,并且还能使用复杂得多的方式匹配连接;其中的识别和转换甚至能够给整个宇宙打造一个模型。谷歌DeepMind这样的项目正在实验将不同的技术结合起来。其中的一个例子是将神经网络和增强学习技术结合起来:让机器生成随机输入,直到其满足预设的条件;通过这一过程,实际结果和理想结果之间的差距就会不断缩小,但总归而言,这些应用仍然处于非常具体的狭窄的领域内。
最近,DeepMind项目正在使用这种组合技术来「掌握2600个各种各样的雅达利游戏」。谷歌研究员Koray Kavukcuoglu在接受Wired采访时表示他的团队已经打造了「一个应该可以应用于其它多种任务的通用学习算法」,但是「学习如何执行任务」和「能够有意识地思考这些任务」之间是有很大差别的,至少「思考」还会涉及到这些任务可能产生的后果和进行这项任务需要的前期投入等等。
误解二:人工智能不会被人类的伦理道德约束
人们很容易想象出智能机器自主行动可能带来的种种危险,像是发了疯了机器人士兵或是不能识别致命状况的自动驾驶汽车。但搜索引擎所可能带来的危险就不是那么明显了,想象一下如果巨头企业的搜索引擎给出了一个带有偏见,但并不关乎你切身利益的答案,你可能甚至都赖得耸耸肩。
然而这才是我们更应该马上关心的问题,这涉及我们使用当前和未来人工智能技术以及被这些技术利用的方式。假如医生使用沃森(或Siri或Google Now或Cortana)作为诊断手段的一部分并由此造成误诊,那么谁应该对这样的后果担负道德上的责任呢?更何况未来有一天我们也许还会面临人工智能要求自身权利的问题。
好在现在人们已经在严肃地对待这个问题了。要知道,光是定义人类之间的道德都已经无比困难了!现代社会通过规则和法律系统为人们的基本道德规则设定了框架,而这种方式也为人工智能道德伦理的发展指出了一条实用的路径。
第一个问题是机器人或人工智能对人类来说是否是全然的新鲜事物从而需要全新的思维方式,或是否可以只通过对现有的规则进行调整以对其进行约束?
「两种都要。」华盛顿大学法学助理教授兼网络法制定的领军人说,「有相当多的人关注机器人将会‘觉醒’的概念,觉得它们将会要求权利并可能伤害我们。我不觉得这会发生,至少在可预见的未来内不会。但机器人和人工智能对法律和政策来说却是全新而有趣的挑战,就好像是1990年代的互联网一样。」
那么,如果人工智能学习或表现出了有害的行为又该怎么办呢?谁该对此负责?
我们有选择,Calo说,包括如果人们将学习系统部署到可能带来麻烦的地方,那么他们就应该为此承担严格的责任。「这可以将自学习系统限制在真正需要或危险较小的地方。」但Calo表示并不可能做到面面俱到,「在技术政策中,风险管理将发挥更大的作用。」
互联网就曾经给法律构成过挑战,因此有关人工智能的法律制定也能从中获取经验。Calo说:「其中有些经验教训很容易适用于机器人——例如,架构和代码可以成为一种监管力量,或像是计算机科学和法学这样的学科之间应该互相沟通。」
但其它的一些问题却并没有先例,毕竟人工智能和机器人并不是一些「手无寸铁」的数据。Calo说
「当涉及到实实在在的机体而不只是比特时,法院就不那么舒服了。我称之为具体化问题(the problem of embodiment)。」
「我们可能需要一个全新的模式。我们可能需要一个联邦机器人委员会帮助其它机构、法院以及州和联邦的国会议员对技术有足够的了解,以便于政策制定。」
这一举措将确保人工智能和机器人等新技术获得足够的关注,同时还能遵守人们业已熟悉的立法方式。
制造法律,而不是制造战争
然而总有一些地方道德起不了太大作用。2015年3月份,美国军方主办了一场构思2050年未来战场的研讨会。在研讨会的总结中可以看到人工智能所扮演的大量重要角色;人工智能将不只是处理数据那么简单,它们还直接控制武器,人类士兵可能将不再处于战斗环路之中。
本次研讨会还预测了自动化决策的可能、使用信息误导作为武器、微型定位、大规模自组织系统和能够独立或协作执行任务的机器群。想一想,现代武器即使在人类的控制下都很容易对平民带来附带伤害,而一旦自动化机器也参与到了战争和战斗的决策中,又可能会发生什么呢?
鉴于目前许多人工智能技术都是通过开源协作方式在发展(伊隆o马斯克和山姆o奥特曼近日宣布对一家致力于人工智能技术发展的公司OpenAI进行了数十亿美元的投资),合乎道德的决策现在就已经显得很重要了。如果你在开发人工智能技术,你希望它们被用于战争吗?如果不,又该怎么阻止?
误解三:人工智能将会失控
物理学家斯蒂芬o霍金和科技富豪伊隆o马斯克等多位名人都曾经公开表示过对人工智能的危及人类生存的担忧。
霍金说:「全人工智能的发展可能意味着人类的终结。人类受到了缓慢的生物进化的限制,根本无法与之竞争,而将被取代。」马斯克同样疑心重重,2014年他曾表示强人工智能「可能比核武器更危险,而最近人工智能是『我们最大的生存威胁』」。
一些科技文章提出,拥有足够能力的人工智能不仅将在思维能力上超过人类,而且还将必然进化出自己的动机和计划以伪装和保护自己免受人类的伤害。然后人类就有麻烦了。
但这样的愿景究竟将怎样实现还不能明确。鼓吹人类即将变得微不足道甚至处境变得更为糟糕的理论家和带路人Ray Kurzweil推断由摩尔定律预测的指数式的技术能力增长将一直持续到本世纪40年代,那也将是奇点到来的时候。人工智能将会实现自我延续,并且将再也不需要依赖人类的智力了。
反驳这种论调的论据有很多,比如说摩尔定律的指数增长并不是没有限制的,而且外部因素对这一增长的影响实际上也越来越显著。摩尔定律所预测的每隔2年左右晶体管密度翻一番的增长已经很好地维持了50年时间,现在的技术已经逐渐逼近了基本物理限制的极限。
随着晶体管尺寸的指数式变小,晶体管的开关速度也相应提高,但同时量子隧道效应所带来漏电也在指数式增长。这个问题很复杂,但本质上来讲就是随着晶体管的各层结构变得越来越薄,电子就越来越容易隧穿出去。这不仅增加了晶体管的总功耗,而且还可能导致灾难性的后果。
摩尔定律还是其中的一部分问题。处理器的时钟频率从上世纪70年代到本世纪头10年已经翻了一倍,而这又带来了另一个问题:芯片的功率密度的飞升;另外要保证这些功率怪兽不把自己给烧了也需要强大的外部配置。
尽管芯片的尺寸还在继续缩小,但高端计算机的功耗水平却一直没怎么该变。结果现在我们不得不想办法在仅有10毫米见方的芯片上转移走100W的热量!其难度可想而知。为了进一步发展,我们必然需要全新的冷却技术。
最后也是最大的限制是晶体管本身也是由原子构成的,现在晶体管的尺寸已经接近晶体管成型的最低尺寸了,再继续减小原子也许就不能再继续组成晶体管了。行业路线图指出这一极限大约将在2020年来到;虽然还有几年,但我们现在已经感受到了物理定律的不可违逆的压力。英特尔今年早些时候宣布推迟由14纳米(最小组件只有27个原子)向10纳米技术节点的过渡,将摩尔定律预言的换代时间延长了一年。
等待下一个大突破
目前来看,技术方面的主要努力还是在「核战」上,人们普遍相信2个2GHz内核比单个4GHz内核好,但大多数情况都并非如此,毕竟只有很少的计算任务可以有效地分割到多个内核上运行。
过去几年最大的改变是数据中心大型集中式计算设备、公共云和混合云、以及超级计算机的迅猛增长。微观尺度上的性能提升已经变得相当困难了,企业和机构的注意力也因此转向了宏观,以提升大规模数据处理的效率。
Siri并不在你的iPhone里面,她住在苹果的数据中心里;Xbox One并不能实时处理可修改的游戏环境的物理规则,这一过程实际上在微软Azure上进行。
但即使是在数据中心和超级计算机上,其它因素的限制也在逐渐增大。功耗和散热已经是老生常谈的问题了。另外光速的限制对数字信号传递速度带来的影响也对信号流入流出计算芯片的速度带来了不可避免的限制。实际上光速已经对一些专业应用的人工智能产生了影响,其中最值得一提的是实时金融分析和高频交易。
比如三年前一家网络公司建造一套连接伦敦和法兰克福的地上微波网络,将现有光纤网络的往返延迟时间从8.35ms减半到了4.6ms。在该网络被公开曝光之前,其一直被秘密地用于高频交易。建造一套连接这两个城市的网络只需要1000万欧元(1500万美元),但高频交易所产生的利润则可能高达数亿英镑!
目前没人知道强人工智能的工作原理,但其必然涉及到处理大量的数据。所以不同位置之间的信号传输都将继续存在延迟,除非我们能找到一种完全不同的物理规则,而这又将涉及到对时空本质的探求,。
量子物理学也在为数据的计算处理贡献着新的思路和方法。或许信息和能量一样,是整个宇宙运转的基础。也许量子物理学最终将揭示出真正智能的人工智能的解决方案,但在那之前,我们还有很长的路要走。
误解四:人工智能将会是一系列突然的突破
在阿瑟o克拉克1964年的短篇小说《拨F字找弗兰克斯坦》中,当全球电话系统获得了知觉时,全世界的电话都同步发出了同样的铃声。克拉克后来宣称蒂姆o伯纳斯-李承认发明网络的一部分灵感来自于这篇小说。但「系统觉醒,变得有知觉」是人们对人工智能未来的误解的核心。
而事实当然并非如此。人工智能的发展和进步是依靠缓慢的、人为有意的方式推进的。只是现在,人工智能在经历了大约50年的默默发展之后,这才开始向更高级的应用领域(如:医疗、教育、金融等)大举扩张。但即便如此,这些仍然是较为狭窄的应用领域,你现在可找不到一个既能帮你理财,又能给你诊断疾病的人工智能顾问。
关于人工智能「大爆炸」式突破的误解已经给该领域带来了多次伤害:当结果和预期存在差别时,人们的期望和相关投资都会远离相关研究。
这些「人工智能的冬天」总是会时不时到来。上世纪80年代,日本政府投入数亿美元资助「第五代」(Fifth Generation)计划,试图通过能在面对逻辑问题时有效编程自身的大规模并行超级计算机一举超越西方技术。而到该项目完成时,却没有出现任何有商用价值的成果,而此时西方的计算系统已经通过常规技术的演进遥遥领先了。之后政府对人工智能的投资就终止了。
类似的状况也曾发生在70年代的英国,在莱特希尔报告(Lighthill Report)说服了议会人工智能研究没有任何实际应用价值的迹象后,政府取消了大部分针对人工智能研究的投资。该报告批评说人工智能系统只有「玩具」般的生产力,无法应对现实数据的复杂度,人工智能的「宏伟目标」无法实现。同样,那时候传统的计算方法更加实用,而且看起来也超过了人工智能所能提供的一切。
然而颇具讽刺意味的是,许多失败的人工智能项目(包括60年代初的机器翻译,60年代末的早期神经网络,70年代的语音识别,80年代编纂业务知识的「专家系统」)在云计算的发展之下又重获新生,成为了现实。看起来,商业利益驱动的研究开发还是胜过毫无目的的政府投资,人工智能的进步还是需要建立在其它技术的基础之上。
人工智能技术研究的真正动力是什么?钱。商业化是一个强大的推动力:促使企业持续不断改进自己的产品;随着企业的发展,它们也将适应和开发自己的人工智能软件。当然,除非它们创造了一个可以在没有人类的干涉下适应和开发自己的人工智能。但要实现这样的目标,现在看起来还有很长的路要走。
机器之心,最专业的前沿科技媒体和产业服务平台,每日提供优质产业资讯与深度思考,欢迎关注微信公众号「机器之心」(almosthuman2014),或登录机器之心网站更多精彩内容。
阅读:17719
分享到微信朋友圈
在手机阅读、分享本文
还可以输入250个字
推荐文章RECOMMEND
热门文章HOT NEWS
体量差距还是很大
百度新闻客户端
百度新闻客户端
百度新闻客户端
扫描二维码下载
订阅 "百家" 频道
观看更多百家精彩新闻

我要回帖

更多关于 人工智能概念股 的文章

 

随机推荐