电脑智能人工智能会超越人类吗工还需要多少年?

浅谈人工智能是否会超越人类智能_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
浅谈人工智能是否会超越人类智能
上传于||暂无简介
阅读已结束,如果下载本文需要使用1下载券
想免费下载本文?
下载文档到电脑,查找使用更方便
还剩1页未读,继续阅读
你可能喜欢AlphaGo 赢了三局,但复旦教授说,人工智能要超越人类还太早
复旦教授:人工智能超越人类为时尚早,未解决五十年前提出的任何一个难题
危辉,复旦大学计算机学院教授
编者按:谷歌的人工智能机器 AlphaGo 三次将韩国围棋九段高手李世石挑落马下,五番棋胜负已分。然而,在人们已经为人工智能在围棋上的胜利欢呼时,复旦大学计算机学院教授危辉认为,我们应该保持审慎乐观,因为人工智能的核心科学难题,从 50 年多前人工智能的诞生到现在,还一个都没解决,以前人工智能做不了的事情现在仍几乎不能做,进步之处在于现在计算机的计算速度快了许多。本文来自上海科协大讲坛暨第 201 期新民科学咖啡馆危辉教授讲座现场记录,经过本人审阅。
● ● ●
1.人工智能完胜人类?这还只是一个传说
在 Google 人工智能 AlphGo 战胜欧洲围棋冠军之后,Google 有个说法叫做人类最后的智力骄傲即将崩塌,其实我觉得这个说法言过其实,人类最绚烂、最精华的东西远不是围棋,例如人能欣赏一则幽默,解决刚刚遇到的一个问题,但机器完全做不到,人类的思维远不是说因为在围棋上失败而失去了一切。
很多人说 IBM 的 Watson 机器人(2011 年,在美国的电视智力竞赛节目中打败了人类对手)比人聪明,实际情况并非如此,它做智力测验比一般人好。设计师事先给它设计一个游戏规则,类似我们小时候电视上经常出现的问答,回答对了加十分。根据这个规则,Watson 最后得了 77147 分,得分最高,所以细究一下,高分不一定表示它聪明,当你让它做一件要求推理的事情时,这个机器就会崩掉,所以我们要跟它比推理能力,而不是简单的机械记忆。
最近两年,在拉斯维加斯全球消费电子展(CES)上的自动驾驶也很热,很多人希望将来我们的汽车也能自动驾驶,但目前的情况是,如果有一天自动驾驶汽车放到你面前,你不会开,因为程序很繁琐。真正地要机器跟人类的驾驶员那样高度自动化,目前还远远达不到,所以这也仅仅只是一个梦想而已。
有人曾说,未来大概有七百多种职业,包括速记员、导游、客服、秘书、司机不再需要人来担任。我想列举一例,1950 年,人工智能刚刚出现的时候,就有人预测秘书会被机器人代替,但从 1950 到现在,秘书有被机器代替了吗?所以现在重提将来会有 750 余种工作被机器代替,这个预测实在太大胆。像客服、导游这么复杂的工作,机器要代替人还非常难。
从科普杂志到时尚杂志都在宣扬机器智慧超越人类,都只是一种假象,人工智能的核心科学难题,50 年前到现在还没有一个解决,以前人工智做不了的事情现在仍几乎不能做,只不过现在计算机的速度快了,好像看起来有所改进,其实改进不是很大。真正的理论突破没有,大多只是渐进式工程进步而已。一个最好的例子就是自然语言理解,以前人们希望计算机能够翻译论文,现在只能做到大大限制主题后的简单问答。
2.人工智能:理想与现实的差距仍很遥远
人工智能通常包含两件事情:第一件事情我们首先要了解人类智能的本质是什么,生物体(如人)的智能如何实现。人类在千百万年的演化过程中,进化出一个非常完善的大脑,所以我们首先弄清楚大脑如何工作,人类智能的本质是什么;第二件事情,我们知道了大脑的工作原理,哪怕只知道一点点,就可按照大脑的工作机制,设计一些算法或硬件来展现智能机器&&任何一项做人工智能的研究都包含这两件事。
人工智能之所以能求解,必须满足两个条件:
第一、要求能够精确定义的问题;
第二、问题的范围一定要非常有限,能够被精确定义。
现实的情况是,我们生活中大量的问题,是不能被精确定义的,范围也不受限,以近日谷歌 AlphaGo 与李世石九段的围棋比赛为例,围棋的黑子白子、格子规范,棋局设计,用计算机表示它们,均能够做到。所以对人工智能来说,一定要定义地非常精确,范围非常有限,只有这样它们才能大概知道在做怎样的事情,以及如何做好。
回归到人工智能研究的细节上来,人工智能首先研究的是推理,推理很基础简单,相当于中学生的几何题:告诉你已知条件,然后证明出来,如证明两条线垂直或两个角相等,这是人工智能研究的早期核心之一。
其次,人有非常强的学习能力,计算机以前不能学习,设定程序后只能按程序做,不会解决遇到的新问题。人类希望它像同自己那样擅于学习,于是让它&读&很多书,&看&很多东西,把&前辈&的经验记下来,于是计算机的学习能力得到提升。
第三个方面,问题的求解,在设置起始状态以及最终状态后,以最快的速度从这种情况挪到那种情况,何种方式速度最快最好,这是人工智能研究的第三个问题。
第四个问题是规划,例如走迷宫,我们需要规划一条路线,从这里走进去,从那里走出来,人工智能可以做出这样的决策。
第五个问题是自然语言的理解,自然语言理解里面一个非常核心的应用是机器翻译,自然语言理解非常困难,解决这个问题,要比计算机下围棋打败人难很多,所以如果机器翻译搞定的话,我们就不用花那么多的时间学习英语,就可以跟老外顺畅地交流,但我们发现这是很困难的事情。
第六个研究是模式识别,如图象理解,比如场景是一张图里有桌子、茶、雕像,还有语音播放,人类的视觉以及听觉能很好地识别它们。机器的模式识别能力目前在简单的东西上已做得不错,如指纹识别、印刷体识别、手写体识别以及汽车入库车牌识别都做得不错,但在复杂的情况下还做不到,仍有局限性,例如车牌识别仅限于车停在恰当的位置,如换成大马路等其他场景,识别就不好了,所以现在的模式识别做得好的事情屈指可数。如果要把模式识别研究清楚,未来十年、二十年,我们能够取得很大的进步吗?我不敢估计。类似的领域还有很多。
3.人工智能模拟人类神经网络,前景无限
上图为国际象棋算法示意图,下图为围棋算法示意图,图片来自 IFENG
人类智能的物质基础是大脑中的神经元。它们大概有 1000 亿个,神经元如何工作以及多个神经元构造如何工作,研究它们对人类进步的意义很大。今年大脑科学计划将成为国家未来科学研究一个非常重要的方向。如果把脑科学研究成果跟人工智能程序设计连接在一起,这会给人工智能设计带来很大的想象空间。
目前,人类的视网膜从解析度上来看已不如高端的照相机,但人的视网膜非常复杂,视网膜细胞收集信息后,将信息投递到别的细胞中去,这个信息通路的过程也很复杂。不同的细胞收集不同范围里面的信息,部分细胞能检测到图象的边界。因为有了边界以后,人类才能看到外面的世界。
很多人说,眼见为实,其实这并不总是客观的。因为视觉对外界物理信息主动加工,已经解释过一遍,所以说并不是真实的物理环境和真正的刺激,我们的主观感知有颜色,但这并不是说自然界真的有颜色,而是我们的主观感受。但是它会带来好处,这就是方便我们对整个世界加工,不同的颜色表示不同的物理刺激,我们很容易将不同事物区分出来,显然这种主观标示刺激对我们认知世界有好处。
人工智能的模式识别以及图像加工程序模拟视网膜细胞,原理与之类似。如果我们能够模拟大脑的工作机制,写出程序来解释人类为什么会产生错觉,从而有可能接近大脑的工作机制,就会使得我们一步步地接近大脑是怎样工作。类脑计算是模仿大脑信息加工制造出来的硬件结构或计算程序,它的核心是根据大脑的工作机制才能做好,这是一个多学科交叉的研究领域,例如心理学、神经科学等。通常情况下,设计计算机软件是针对某种人工智能任务。类脑计算的核心是我们了解大脑怎么工作之后,然后再对它进行模仿。
眼见并不一定为实,缪勒&&莱依尔错觉。图片来自
类脑计算的发展前景以及未来应用都非常广阔。例如,当人的视觉出现障碍,青光眼或由外伤导致失明,如果我们想对他进行修复,或设计一个模仿机器即可让他看到世界。事实上,人类的视觉加工神经通路很长,如果中间哪个环节出了问题,就会影响视力,我们可设计一些视网膜芯片来代替它。对于很多截瘫病人,如果能通过芯片植入,将上下神经连接起来,使其恢复正常行走或感知,这种应用的社会价值也很大,所以类脑计算跟普通人的日常生活息息相关,未来会有非常好的应用前景,当然它自身需要解决的问题还很多。
4.AlphaGo Vs 李世石:人类以一敌百,虽败尤荣
对于围棋比赛来说,每一步我们的选择会很多,机器同我们一样,每一步都有很多决策需要决定,但机器每一步棋的结果会一直演化下去,直至得到最优的选择,而且它们这样做很容易,对人类来说,这并非易事。如果我们将棋局上的每一个点视为一个元素,它可以是 1、-1,或者是 0,所以每一个点共有三种状态:黑、白和空白,这种结点数量总共有 3 的 361 次方之巨,人脑这样做会有些困难,但人工智能可以把棋局精确地表示出来。
对于机器来说,实现它的效率是一个难点,即用很快的速度或方法找出哪种走步最合适。一个好的办法是设计一个搜索程序,一个结点、一个结点地走下去,它需要判断哪一个更好,判断的依据来自于后面,而不依赖于前面,所以对计算程序而言,它们总能找到对自己有利的走法,人工智能的这个难点类似人类的歧路寻羊,穷尽所有可能性的方法在机器里面搜索。这理论上是可行的,但实践上却不容易。
接下来就是如何提高机器的效率,AlphaGo 通过对很多棋谱进行深度学习,并事先对棋谱依据走法和策略进行了分类,每一个分类对应一个已知的不同策略。在设计过程中,谷歌的 AlphaGo 可能有一个创新的设计,即怎么表征棋局的当前状态和判定假设走步的价值,比如说每走一步,它的价值是什么。这可能是通过对大量以往棋局的机器学习来做到的,它或是基于下棋规则,或是基于大量棋局与走步的配对。人工智能在每一种情况下,都有一个很好的判定。事实上,这种搜索上世纪 50 年代就已做到,如今仍在反复使用。
对于李世石来说,AlphaGo 的背后拥有一个庞大的团队,有做硬件的,有设计程序的,还有大量的顶尖棋手贡献出来的棋谱。棋谱是 AlphaGo 经验的来源,也是其他大量棋手经验的结晶,所以把这么多人的智慧综合到一个计算机上,来对付一个人,李世石堪称虽败尤荣。
事实上,围棋是一个规则特别明确的事情,AlphaGo 非常可能针对的不是模仿下棋规则,而是匹配一定区域的棋局。如果人类和人工智能比规则简单明确的棋类,早晚要输。
此前两役,AlphaGo 赢了,其实它并没有真正地理解围棋的基本原则,它唯一的概念就是布局和布局之间的关系,所以说它的程序学到的东西还很有限,并不像我们想象的那么好,所谓的类推能力是由它积累的海量样本造成,这方面没有创新,机器只知其然,不知其所以然。
人工智能发展到现在的一个现状是:瞎子摸象。每个人看的东西都是很局部的,但是每个人都认为自己看到的就是人工智能未来的发展方向,最后大家都没有达成一个共识。
很多人不愿意承认这种尴尬局面:我们离我们的目标仍非常遥远,真正的人工智能也离我们很远。尽管银幕中的科幻电影有很多人工智能的形象,它们甚至已进化出了人的意识,但这样的事情在现实世界中还不会出现。生物神经系统,特别是高级灵长目动物的大脑,是长期自然进化的结果,我们要对自然心存敬畏,不要动辄就认为它很容易被超越。
(责任编辑 叶水送 徐可)
知识分子,为更好的智趣生活。
投稿、授权事宜请联系:。
关注请加微信号:the-intellectual
客官,这篇文章有意思吗?您好, []|
计算机科学家预测2045年人工智能将超越人脑
[导读]正如宇宙学上存在着一个让所有物理定律都失效的“奇点”一样,信息技术正朝着“超人类智能”的奇点迈进。计算机科学家雷蒙德·库兹韦尔相信,这个信息奇点即将到来,那时,人工智能将超越人脑。
腾讯科技讯(编译/古木)据国外媒体报道,日,超级电脑“沃森”打败了人类,站在了与人类智力竞赛的最高领奖台上。沃森的胜利让许多人想起了它的前辈“深蓝”:1997年“深蓝”力克国际象棋世界冠军卡斯帕罗夫。这曾让人类大呼:狼来了。家预测2045年人工智能将超越人脑从“深蓝”到“沃森”,人工智能已经向前跨越了一大步。电脑会代替人脑吗?机械公敌会出现吗?这成为很多人的忧虑。一些科学家认为,正如宇宙学上存在着一个让所有物理定律都失效的“奇点”一样,信息技术也正朝着“超人类智能”的奇点迈进。计算机科学家雷蒙德·库兹韦尔相信,这个信息奇点即将到来,那时,人工智能将超越人脑,人类的意义将彻底改变;那时人将“不人”,而是与机器融合,成为“超级人类”。超级人类是否意味着不朽?人是否会与自己制造的机器融为一体,或将自己分拆在机器中上市?其实早在1964年,传媒大师麦克卢汉就在《机器的新娘》中隐喻:人类只是未来机器的性器官(负责生产新机器人)。机器是人的延伸,反之,人也是机器的延伸。人工智能始祖图灵在上世纪50年代就曾做出预测:未来的电脑可能会思考。这一天正在到来,而且脚步匆匆。当有一天机器有了思想,它们能像人类一样思考,世界将会怎么样?库兹韦尔相信,这一刻不但无法避免,而且还迫在眉睫。根据他的推算,大约在35年之后,人类文明即将终结。那一年,就是2045。奇点爱因斯坦的广义相对论是用于描述宇宙演化的正确理论。在经典广义相对论的框架里,霍金和彭罗斯证明了,在一般的条件下,空间—时间一定存在奇点,最著名的奇点即是黑洞里的奇点以及宇宙大爆炸处的奇点。在奇点处,所有定律以及可预见性都失效。奇点可以看成空间时间的边缘或边界。只有给定了奇点处的边界条件,才能由爱因斯坦方程得到宇宙的演化。电脑的计算速度正变得越来越快,如果有一天,电脑的运算速度快得令人难以置信,它们掌握人工智能的时刻也会到来,那时电脑将能够模拟人脑、产生意识:人类本身将发生改变。在信息学上,这个时间点也被称为“奇点”。为什么是2045一些科学家认为,正如天体物理学上存在着一个让所有物理定律都失效的“奇点”(Singularity)一样,信息技术也正朝着“超人类智能” 的“奇点”迈进。《时代》杂志文章指出,发明家、计算机科学家雷蒙德·库兹韦尔相信,信息技术的奇点将在2045年到来,届时,人工智能将超越人脑,人类的意义彻底改变,与机器融合为“超人类”,并借助科技的发展而获得“永生”。一个秘密少年弹的曲子是电脑创作的日,一位名为雷蒙德·库兹韦尔的高中生参加了电视节目“我有个秘密”,主持人史蒂夫·艾伦介绍了库兹韦尔,然后库兹韦尔用钢琴短短地弹奏了一曲,曲子有一个秘密,让其他嘉宾得猜出来。最终一名喜剧演员得出了答案——库兹韦尔弹奏的曲子是电脑创作的。这台能作曲的电脑是库兹韦尔自己组装的,当时节目中的人们并未对电脑表现出多大兴趣,他们更关注的是库兹韦尔的年纪,却忽略了他完成的事情是多么了不起。艺术创作是人类独有的能力,是自我表达的一种方式。人类所独有的创造力,被一个17岁少年组装的电脑所“夺取”了,就像是看着原本不可逾越的界线变得模糊了——这就是人类智慧与人工智能之间的界线。这才是库兹韦尔真正的秘密,而他随后的一生也都在为之写下注脚,虽然在1965年没有人能猜出这一点,也许库兹韦尔当时也还没想到。46年之后的今天,库兹韦尔认为,人类正在接近一个电脑智能化的时刻,电脑不仅变得聪明而且还会比人类更聪明。当人工智能超越人类智慧时,人类的身体、思维乃至人类文明都将发生彻底且不可逆转的改变。库兹韦尔相信,这一刻不但无法避免,而且还迫在眉睫。根据他的推算,大约34年之后,人类与机器融合,人类文明即将终结。
[责任编辑:joeyjiang]
(请登录发言,并遵守)
如果你对科技频道有任何意见或建议,请到交流平台反馈。【】
新闻排行财经数码科技科普
Copyright & 1998 - 2016 Tencent. All Rights Reserved启动2015世界人工智能系统智商排名,检测人工智能是否超越人类
已有 1914 次阅读
|个人分类:|系统分类:|关键词:人工智能 华文楷体 color style 超越
2014年科学院,北交大的刘锋,石勇团队发表论文提出标准AI智商,建立了标准智能模型,并在此基础上建立“互联网标准AI智商测试量表”。根据这一研究成果。2014年6月对世界范围的搜索引擎和不同年龄段的人类进行”互联网智商“的联合测试。形成了世界第一份人类和50个互联网人工智能系统(搜索引擎)智商的排名。研究不但发现搜索引擎等人工智能系统呈现的优势和存在的弱点,也得出智商得分最高的谷歌搜索引擎还没有达到人类六岁儿童智商一半的结论。这一研究成果发表在2014年6月莫斯科ITQM会议上和2015年3月SCI期刊IJITDM上。这项研究在美国和欧洲研究机构中产生了一定影响,并受到海内外媒体的关注和报道。2015年人工智能继续快速发展,在这一年里谷歌,百度,微软,腾讯和其他世界范围人工智能系统又发生哪些新的变化。它们的智商排名如何,这些进展对人工智能是否超越人类智慧会有哪些影响。 针对这些问题,在科学院相关机构和新媒体“人工智能学家”支持下,我们决定启动2015世界人工智能系统智商测试,对世界人工智能系统进行智商排名,形成研究报告通过海内外媒体向社会公布,并作为学术论文在高水平学术期刊发表。关于“人工智能学家”“人工智能学家”是在中国科学院大数据与知识管理重点实验室等机构的支持下成立的人工智能领域的新媒体,重点关注人工智能领域科技与产业前沿进展,。微信号:人工智能学家 &或 AItists关于人工智能是否超越人类智慧的争论& &本世纪以来,随着互联网大数据的兴起,信息的爆炸式增长,深度学习等机器学习算法在互联网领域的广泛应用,人工智能再次进入快速发展的时期。与此同时,不同领域的科学家,企业家如物理学家霍金,微软创始人比尔盖茨等人,纷纷对人工智能的未来表达了担心,提出人工智能的快速发展可能对人类本身产生威胁,由于这些科学家,企业家具有很强的影响力,人工智能威胁论因此得到广泛传播。 & 在人工智能威胁论热度日益高涨的情况下,人工智能领域科学家对人工智能威胁论也提出了反驳意见。Facebook人工智能实验室主任,NYU计算机科学教授Yann LeCun 2014年4月在接受IEEE 《Spectrum》采访时发表了对人工智能威胁论的看法,他认为人工智能研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会带来这么一段从盲目乐观到不理智最后到沮丧的阶段。 & Yann LeCun 提出了与威胁论支持者不同的人工智能未来发展路径,他提到大部分人觉得人工智能的进展是个指数曲线,其实它是个S型曲线,他指出未来学家生来就愿意做出盲目的预测,尤其是他们特别渴望这个预测成真的时候,可能是为了实现个人抱负。 & & 人工智能威胁论不仅仅是一个引发巨大争议的社会热点问题,其背后更是一个人工智能系统能否定量评测的课题。1950年,图灵发表题为《机器能思考吗?》的论文,第一次提出“机器思维”的概念。提出假想:一个人在不接触对方的情况下,通过一种特殊的方式,和对方进行一系列的问答,如果在相当长时间内,他无法根据这些问题判断对方是人还是计算机,那么,就可以认为这个计算机具有同人相当的智力,即这台计算机是能思维的。这就是著名的“图灵测试”(Turing Testing)。&&图灵测试经常用来检验机器是否具备人的智能,但图灵测试受人为因素干扰太多,严重依赖裁判者和被测试者的主观判断,而且只判断机器是否具备了人的智能,但机器与人类智慧的差距和变化速度并不能得到定量的分析。因此往往有人宣称其程序通过图灵测试,例如2014年6月英国雷丁大学客座教授凯文•沃维克宣称一款名为“尤金•古特曼(EugeneGoostman)”的计算机软件通过了测试,但很快就被人揭发他们的测试有很大漏洞并由欺诈嫌疑。标准智能模型和标准AI智商的提出那么有没有一种方法,能够定量检测人工智能系统的发展水平和速度,并与人类智力进行对比,观察可能潜在的风险并进行防范。2013年以来科学院,北交大的刘锋,石勇团队对人工智能和互联网智商测试方向进行了研究和探索。基于“智力是人们认识客观事物并运用知识解决实际问题的能力”这一基本认知,参考图灵机,冯诺依曼结构,和DIKW知识管理模型体系,建立描述人工智能系统和人类生命体统一特征的“标准智能模型“,并在此基础上提出了基于互联网大环境的标准AI智商和测试量表。 & & 2014年基于“互联网标准AI智商量表“对世界范围的50个搜索引擎和6岁,12岁,18岁三个年龄段人类进行了统一的智商测试,形成了2014年互联网人工智能系统的标准AI智商排名(如上表)。这一研究成果发表在2014年6月莫斯科ITQM会议上和2015年3月SCI期刊IJITDM上。作者北京交通大学人工智能方向博士生刘锋,科学院虚拟经济与数据科学研究中心石勇教授。启动2015年世界人工智能系统智商测试并深入研究机器与人类智商关系2015年,随着谷歌,百度,微软,Facebook,苹果,IBM在人工智能领域的加大投入,众多人工智能科技企业不断兴起,相对与一年前,人工智能系统的发展水平又进一步得到很大提升。为了更加明晰人工智能在2015年又有哪些新进展,各人工智能系统发展速度有何差异,人工智能水平与人类智慧还有哪些差异。在科学院相关机构和“人工智能学家”支持下,刘锋,石勇研究团队决定启动2015世界人工智能系统智商测试 ,对世界人工智能系统进行智商排名。2015年的测试除了世界范围的80个搜索引擎,也将对微软小冰人工智能系统,腾讯微信机器人,Facebook M,苹果Siri人工智能系统进行测试。开展2015互联网智商测试和对世界人工智能系统进行智商排名的意义在于:1.为机器智慧能否超越人类智慧的争议问题提供定量科学分析的解决方法,2. “互联网智商测试“可以帮助人工智能系统优化系统效率,学习人类智慧的长处和优点,发现弱项和不足,从而进行持续改进。 & & 围绕2015互联网智商测试和世界人工智能系统智商排名,研究团队将进行工作和活动包括:1.在11月份举办2015互联网智商测试启动发布会,介绍2015互联网智商测试相关活动,邀请人工智能领域专家和企业领导人讲述人工智能前沿进展2.组织科研力量对世界范围人工智能系统和不同年龄段人类进行统一的互联网智商测试,并对结果进行分析研究,撰写2015世界人工智能系统智商研究报告。3. 根据测试和分析结果发表学术论文,阐述2015年互联网智商测试的研究成果4. 组织人工智能相关领域专家,科技企业家召开人工智能与人类智慧关系研讨会。对人工智能系统智商评测方法进行改进和修正。更多2015世界人工智能系统智商排名信息请关注微信公众号:人工智能学家 或 AItists
本文引用地址:&此文来自科学网刘锋博客,转载请注明出处。
上一篇:下一篇:
当前推荐数:2
评论 ( 个评论)
作者的精选博文
作者的其他最新博文
热门博文导读
Powered by
Copyright &作 者:王晓阳(1978- ),江苏泰州人,上海交通大学哲学系副教授,主要研究方向:分析哲学、形而上学、认知科学,上海 200240原文出处:《自然辩证法研究》(京)2015年第20157期 第104-110页内容提要:半个多世纪以来,人工智能研究似乎取得了迅猛发展,但批评之声也一直不绝于耳。本文亦是一项关于人工智能的批判性分析,针对的是一个关系到人工智能研究基础的问题,即“人工智能能否超越人类智能”。我将尝试构造一个基于集体人格同一性(collective personal identity)的新论证,从而表明:首先,该问题原则上无法仅在经验科学的框架中获得有效解决;其次,该问题其实是一个没有认知意义的问题;最后,如果该问题没有认知意义,那么人工智能研究的一个重要目标,即“生产出一种新的能以人类智能相似的方式做出反应的智能机器”,恐怕也无法实现。  人工智能(artificial intelligence,以下简记为AI)“是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。AI是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等”。[1]  以上这段引文来自因特网“百度百科”中的“AI”这一词条,也是一个几乎可以得到普遍认可的关于AI的标准理解。从上述引文,我们不难发觉AI研究的一个重要目标,那就是“生产出一种新的能以人类智能相似的方式做出反应的智能机器”。  可以说,自麦卡锡(John McCarthy)在1955年达特矛斯会议上首次提出“AI”这个概念之日起,绝大多数尝试制造智能机器或计算机来模拟人类智能(human intelligence,以下简记为HI)的研究都是朝着这一目标努力的。事实上,尽管在涉及和模拟人类的高级认知能力或智能方面(比如,情绪的表达、艺术的创造力等),AI研究似乎一直鲜有进展,然而在涉及和模拟人类某些特定的智能方面(比如,逻辑推理和计算),AI研究无疑已取得了令人瞩目的伟大成就。这方面广为人知的一个例子就是,IBM公司近十几年来一直在大力推动的“人机大战”。例1,1997年国际象棋世界冠军卡斯帕罗夫在前五局战平的情况下,最后一局(第六局)输给IBM的国际象棋计算机“深蓝”。例2,2011年IBM专为多年来一直风靡美国的智力竞赛电视栏目“危险边缘”(Jeopardy!)所设计的计算机“沃森”与该节目历史上两位最成功的选手肯-詹宁斯和布拉德-鲁特进行了一场终极对决,最终“沃森”完胜。沃森的总成绩为77147分,远高于两位人类选手21600分和24000分的成绩。①  在许多人看来,如果说,例1开始让人们认识到AI(电脑)在某些方面(如,推理和计算)可以与人类较量的现实,那么例2就足以表明,AI不仅在这些方面已经可以与人类较量,甚至开始超越人类了。然而在我看来,关于AI在某些方面(如,推理和计算)所取得的成就以及未来进展所抱有的这种乐观甚至推崇的态度,不免会引起如下这个值得我们进一步考虑的问题,那就是:人类有可能制造出比人类自身智力水平更高的事物吗?②  二、问题分析  上述问题是本文将要处理的目标问题。不难理解,这个问题无疑也是一个涉及AI基础的关键问题。在弄清楚这个问题之前,我们似乎有必要事先澄清如下两个相关问题:第一,这里的“制造”是什么意思?对于这个问题,需要说明的是,本文在通常的意义上来使用“制造”这个词,但是“制造”这个词的确切含义在以下的讨论中并不重要。因为,这篇文章的目的并不在于讨论有关“AI”的一些技术性问题。我所关注的仅仅是一种哲学上的“可能性”。这种需要加以考察的“哲学上的可能性”就是,是否有可能制造出一个比人类自身具有更高智力水平的事物?换句话说,本文并不打算从技术的层面对“如何制造智能机器或智能物”进行具体的可行性论证,而是试图从哲学层面来考察“AI是否(原则上)有可能超越HI”这个涉及到AI基础的问题。第二,如何来界定这里的“智力”?在本文中,我仍沿用当前学界通行的思路,即凭借某种已获得特定权威机构或者科学共同体认可的或可靠的智力表来测试受试者的智力。利用这种测试方法所得到的结果是一些经验数据或数值,我们再将这些数值与智力测试表中的标准数值进行比较,从而就可以判断受试者智力水平的高低。这种做法其实就是凭借特定的智力表来测量受试者的智力水平。因此,如果我们愿意接受这种判定智力水平的方式的话(这也是目前学界通行的做法),那么在上节末尾提到的问题就可进一步转换为如下更为明确的表述,即我们是否有可能制造出一个(或一类)事物K,再利用特定的智力表S进行测试,则得出这样的结论:这个(类)事物K的智力水平比人类中任何一个成员的智力水平都要高?对此问题,可区分如下三种不同的情形论述之:  第一种情形。无论什么原因,如果我们始终无法提供任何一份合适的智力表S,用以测量事物K的智力,那么,我们根本就无法判断K具有怎样的智力水平,更不用谈所谓智力高低的问题了。  第二种情形。如果我们制定出了这样一份合适的智力表S,并且从世界各地随机找来各种各样的人(他们有着不同的信念、职业或性格等等),与事物K进行比照测验,经过一系列长期反复的严格测试,直至满意为止,结果显示:K确实具有比找来参与测试的任何一个人都高的智力水平。由于我们相信为此而设定的智力表S的可靠性以及所选取的比照组(即随机找来的各种各样的人)的客观性,因此可得出这样的结论:K具有比人类高的智力水平。但是,即便这样,就可以宣称已经制造出一个(类)比人类智力更高的事物K吗?我认为还不行。首先,我们可以说智力表S并不是合适的,不能如实地反映事物K的实际智力情况。其次,即使认可智力表S,也无法忽视一种未来的可能性,即似乎目前没有任何正当的理由可以阻止我们相信如下这种可能性:未来有可能出现一种我们目前还无法获知和拥有的技术,帮助人类实现智力水平的巨大飞跃,并且经由S测试,未来的HI仍高于K。可见在这种情形下,只能表明,经由S测试,K的智力水平高于至测试时为止的人类智力水平。因此,如果这种可能性存在的话,那么严格地讲,由于没有考虑时间因素,“可以制造出比人类智力水平更高的事物K”这一说法,仍然是站不住脚的。  第三种情形就是在第二种情形的基础上,把时间因素考虑在内。这种情形就是,不管通过何种途径,假设我们能够制定出一份有效测试人类成员的智力水平的智力表S,不仅现在有效而且将来任何时候都有效。③下面我们来具体考察这种情形,可进一步再分为下述两种情况来讨论:(1)假定我们已经制造出了事物K,不管是一台复杂的机器还是某种奇怪的生物体,我们要测试K的智力水平,该怎么办?按照规定,唯一的途径就是对照智力表S。但是,S是否适用于K呢?按照上述规定,我们可以用S来测量人类成员的智力水平,并且我们也知道K是我们的制造物,但是由于K不同于人类,因此我们无法判断S是否也适用于K。也就是说,在这种情况下,我们根本无法断定是否可以用S来测试K的智力水平,更谈不上和人类的智力水平加以再比较了。换句话说,在这种情况下,我们对于“我们可以制造出比自己智力水平更高的事物”这一说法,仍然无法判断。④(2)如果S也适用于K,那么我们可以认为K的智力与人类的智力之间具有一种“可比较关系”(comparable relation,以下简记为CR)。注意:这里的CR是关键。如何理解CR呢?我的建议是,可以利用以下双向条件句来进行刻画:  (CR)事物t1和事物t2之间具有一种“可比较关系”,当且仅当t1和t2之间具有某个或某些相类似(analogous)的特征(character)C。  例如:这朵花比那朵花红,当且仅当这朵花和那朵花都具有相类似的红色特征,这样我们才可以比较二者之间的红色程度。  同理,当且仅当K和人类在智力方面具有某些类似特征,则K和人类之间才具有CR。然后再借助S,我们就可以测量和比较二者之间的智力水平了。可以说,至今为止AI几乎全部的研究工作都是基于承认或接受CR这个前提之上的。据我所知,尽管对于AI的批评一直不绝于耳,然而到目前为止几乎还没有人怀疑这个前提的必要性。换句话说,至今为止,无论是AI的支持者还是反对者,似乎都普遍接受如下基本信念:不承认K与人类之间具有CR,则我们所理解的AI研究工作是不可能开展下去的。这一点从本文开头所引的关于AI的标准理解中也不难看出。然而在我看来,这个必要前提或基本信念却是可疑的,因为不得不牵涉到形而上学层面的人格同一性论题。可以说,至今为止,我们关于AI的研究工作或争论(无论AI支持方还是反对方)似乎都没有注意到人格同一性论题与AI研究之间的关系。因此本文的重点就是:有别于目前对AI的常见质疑,将尝试借助人格同一性论题来构造一个从不同角度质疑AI研究基础和研究目标的全新论证,即“基于集体人格同一性的论证”(argument based on collective personal identity)。通过该论证,我将要为三个密切相关论点提供辩护:首先,目标问题(AI究竟能否超越HI)原则上无法仅在经验科学的框架中获得有效解决;其次,目标问题其实是一个没有认知意义的问题;最后,如果目标问题没有认知意义,那么AI研究的一个重要目标,即“生产出一种新的能以HI相似的方式做出反应的智能机器”,很可能也无法实现。  三、关于AI的常见争论  在给出新论证之前,先简要回顾一下关于AI的常见争论或许是有益的。按照Hauser的梳理,[3]当前学界对AI的种种质疑,可归为三大类。第一大类是围绕计算主义的争论。有如下三种相互争论的观点:计算主义、二元论和心脑同一论。简言之,计算主义认为,可以将人脑看成数字计算机,因此HI或心灵本质上就是可计算的程序。而按照丘奇-图灵论题,作为一种通用图灵机,数字计算机可以完成一切可能的计算,因此AI是可能的。二元论认为,人脑是能产生主观经验(subjective experience)的独特装置而非数字计算机。心脑同一论则认为,人脑是神经活动的生理器官而非数字计算机,因此(计算主义意义上的)AI是不可能实现的。  第二大类是围绕AI理论框架可行性的争论。常见有如下两种反对意见:来自哥德尔不完备性定理的反驳,来自遵循规则行为或规则约束行为的反驳。第一种反对意见认为,按照哥德尔不完备性定理,在一个一致的算术系统中,至少有一条无法在该系统内部获得证明的定理。但是人类凭直觉可以知道这条无法被证明的定理为真。[4]因此任何计算机原则上无法实现HI,即AI原则上是不可能的。第二种反对意见则认为,由于人在应对各种复杂或突发的自然现象和社会现象时,常不按照某种既定的计划来执行。即使有预先谋划,也常随时调整,甚至也常常凭直觉和经验行事。这就表明,HI具有很强的机动性、直觉性和适应性,并非是某种既定的算法程序。正如德雷福斯(Hubert Dreyfus)所言,人类的很多高级行为(high-level behavior)(如,直觉反应)是不可以被编码的(encoded),是不可能被还原成遵循规则的行为(rule-following behavior)。[5]可见,任何仅由算法或规则程序约束的机器是不可能做到完全模拟或类似于HI的。因此AI不可能实现。  第三大类是围绕人类高级意识活动的争论。HI除了能体现出推理、计算这些意识活动之外,还能体现出情感、感受质、意向性、自由意志等一些更高级的意识活动。后面这些高级的意识活动涉及主观的维度,而任何关于AI的科学研究显然都只能是客观的活动。例如,查莫斯(David Chalmers)认为存在两类意识问题:[6]一类是意识的易问题,另一类是意识的难问题。前者指的是,关于那些能按照其因果角色(causal role)来做功能化解释的特定意识活动(如:学习、推理、回忆、信念等)中的问题。(原则上)认知科学的方法可以处理这类意识问题。后者指的是,不承担任何因果角色,因而不能给出功能化解释也不能用认知科学方法处理的那类意识问题。如:感受质(qualia)难题。如果他的区分是合理的,那么AI也是不可能实现的。因为按照查莫斯的区分,AI研究充其量只能处理意识的易问题。对于像感受质这样的难题,AI无能为力。又如,塞尔(John Searle)正是基于人类意识活动具有意向性的特点提出了中文屋论证。他认为,“被例示的计算程序仅凭自身永远不能成为意向性(产生)的充分条件”。[7]417因此,试图仅凭算法程序来模拟HI的强AI是不可能实现的。  限于篇幅和主旨,不再对上述争论及其各种回应做进一步考察。但是不难看出,以上简要回顾应足以得出如下结论:目前学界围绕AI的种种争论尽管角度各不相同,却有一个共同的前提,那就是,至今为止,几乎所有的争论(无论支持或反对)都认为,AI与HI之间存在“可比较关系”(CR)(在本文第二节,我利用一个双条件句对CR进行了刻画)。⑤分歧仅在于:支持的一方认为,HI(原则上)是人工可复制的(artificially replicable),[3]因而AI完全可以接近或超越HI;反对的一方则认为,由于HI具有某些独特性,因而(原则上)AI无法接近或超越HI。  四、基于集体人格同一性的论证  基于上一节的考察,现在不难理解,HI不同于AI是这两者之间存在CR的一个必要条件。换言之,仅当HI有别于AI,HI和AI之间才有可能具有CR。因此,我们首先需要将HI与AI区别开来,才有可能进一步将二者进行比较。但是问题恰恰在于:究竟出于怎样的理由,我们认为AI有别于HI呢?是由于AI是人为的,因而不同于HI?还是由于HI具有某种独特性,而AI并不具有,因而二者不同?或者其他理由?  在我看来,不管出于怎样的理由,除非我们可以将人类与具有智能的人造物一劳永逸地区别开,否则我们就不能有效回答本文的目标问题(人类有可能制造出比人类自身智力水平更高的事物吗?)。注意,这里的“一劳永逸”是关键。因为任何宣称已经或将要制造出高于人类智力水平的制造物(K)的个人或机构,都避不开如下一个质疑:出于什么理由,我们可以一劳永逸地认为K有别于人类?不难理解,除非这类理由是某种必然为真的知识,否则我们就不可能做到一劳永逸地将K与人类区别开来。  那么,我们是否能拥有这样的必然知识呢?在回答这个问题之前,请先设想如下情形:一般来说,如今任何一个智力水平正常的人都会毫无困难地分辨出入与狗。因为人与狗之间的不同不仅是显而易见的,而且也可以找到科学的精确证据(例如,染色体的数目不同或基因图谱的区别)。但是如果将来有一天,人类经历了一场可怕的灾难。例如:某种未知病毒x的突然爆发,该病毒危害性大、传染性强而且传播迅速。病毒x致使人类身体大面积溃烂并导致迅速死亡,我们根本来不及应对。整个人类种族面临灭绝的危险。然而,我们幸运地发现狗对此病毒具有先天的免疫力。而且,届时的科技已经非常发达,人类已能够将人脑成功移植嫁接到别的哺乳类动物身上。假定,时间紧迫而且为躲避灭顶之灾,我们不得已采用这种技术。于是,经历这场浩劫之后,满街都是狗身人脑的生物。如果这个时候再问:人与狗之间有什么不同?这个问题似乎就很难回答。但是有一点可以肯定:面对此混合体,我们以往拥有的关于人与狗之间差别的所有常识或证据似乎都将失效。  这种可怕的情况也许永远不会降临到人类头上,但无论如何都是可以设想的。而且,上述“人狗混合体”思想实验带给我们的一个直接启示就是,我们一直持有的关于人与狗之间差别的牢靠无疑的知识,其实是偶然真的。同理,我们也可以认为,“K有别于人类”的知识,也并非是必然真的。因此,如果我们无法一劳永逸地区别开K与人类,那么我们就不能宣称K与人类之间具有CR。而如果K与人类之间不具有CR,那么我们将无法判断AI是否可以超过HI。也就是说,人类有可能制造出比人类自身智力水平更高的事物吗?这个问题根本不可能得到明确的回答,因而是一个没有认知意义的问题。同理,如果K与人类之间不具有CR,那么AI研究的一个重要目标——“生产出一种新的能以HI相似的方式做出反应的智能机器”——也是不可能实现的。为便于理解,可将这里的论证整理如下:  (1)如果本文目标问题(人工智能能否超越人类智能)是一个有认知意义的问题,那么AI和HI之间具有CR。  (2)如果AI的重要目标(生产出一种新的能以人类智能相似的方式做出反应的智能机器)可能实现,那么AI和HI之间具有CR。  (3)如果AI和HI之间具有CR,那么存在“K有别于人类”的必然知识。  (4)不存在“K有别于人类”的必然知识。[集体人格同一性难题]  (5)由(3)(4)可得,AI和HI之间不具有CR。[Modus Tollens]  (6)由(2)(5)可得,AI的重要目标不可能实现。[Modus Tollens]  (7)由(1)(5)可得,本文目标问题不是一个有认知意义的问题。[Modus Tollens]  简单分析一下上述论证。首先,该论证并不打算去质疑AI的种种具体方案是否可行,而是专门针对有关AI的各种争论中普遍承诺的一个共同前提——AI和HI之间具有CR。其次,由于“AI和HI之间具有CR”的一个必要条件是,存在“K有别于人类”的必然知识。但是借助对“人狗混合体”思想实验的分析,我们有理由相信,由于集体人格同一性难题的存在,因而并没有“K有别于人类”的必然知识。最后,由于本文的目标问题(人工智能能否超越人类智能)是否具有认知意义,以及AI的重要目标(生产出一种新的能以人类智能相似的方式做出反应的智能机器)是否能实现,均取决于AI和HI之间是否具有CR。由此可进一步得出结论,不但本文目标问题并不是一个有认知意义的问题,而且AI的重要目标也不可能实现。此外,不难看出,该论证中的第(4)步很关键:借助于集体人格同一性难题,才得以否决存在“K有别于人类”的必然知识。可见,这也是其有别于其他关于AI论证的一个新颖之处。因此,我将该论证称之为“基于集体人格同一性的论证”。  下面再回应一下该论证很有可能碰到的两个质疑:⑥  [质疑一]也许有人会说,我们完全可从物理-生理层面获得某种关于人类的本质的必然知识。如,按照当代分子遗传学的说法,人是具有某种特定基因图谱g的物种。于是我们就可以宣称,凡是具有基因图谱g的个体都可以称为人,反之则不是。这样,我们就获得了关于K有别于人类的一劳永逸的标准,即K有别于人类的必然为真的知识。尽管这种必然知识不是先天的(a priori),而是与我们的经验科学的发现有关,因此可以看做类似于“水是H[,2]O”这样的后天(a posteriori)必然知识。  [对质疑一的回应]质疑一的关键是,先区分两种必然知识:先天必然知识和后天必然知识。然后指出,我们没有理由不相信,K有别于人类的知识不可以是一种类似于“水是H[,2]O”这样一类的后天必然知识。但是在我看来,这个类比是无效的。理由就是,像水这样的简单无机物,我们似乎的确能通过揭示其微观物理结构而获得关于其本质的必然知识。然而我们有充足有理由相信,能够展现出智能行为或社会性行为的存在物,不能仅通过揭示微观结构的方法而获得关于其本质的后天必然知识。基于集体人格同一性论证的关键就在于此。具体而言,“集体人格同一性”,关注的不是由多个个体按照生物学意义上的某些生物性或物理性共同特征所组成的特定种群(population)或物种(species)——例如,智人——的人格同一性,而是由多个个体按照某些伦常性或社会性共同特征所组成的特定集体(collective)的人格同一性。换句话说,集体人格同一性探讨的是,究竟出于怎样的理由,我们应将某个特定集体称为人类呢?也就是说,我们不应该是出于某种物理-生理层面的原因,而将K与人类区别开来。因为,在我看来,如果K的确具有了和我们相似的智能以及随之而来的复杂智能行为或社会性行为,那么我们就有理由认为,K和我们应同属于一个集体,而非分属两个不同的集体。而且,由于任何集体所具有的社会性特征总会随着特定的社会环境和历史文化背景的变迁而不断变化,因此,不管K与人类是否属于同一个集体,这个或这些集体也都不会具有某种恒定不变的本质特征或在不同时空中均保持同一的社会性特征。  [质疑二]质疑一中的“必然知识”是一种能在所有情况下或在所有可能世界中将K与人类区别开的知识,但这样的要求或许太强了,可做如下弱化处理:我们也许不能获得K有别于人类的必然知识,但是,只要在某些可能的情况下或某些可能世界w中,有理由将K与人类区别开,那么我们就可以说,至少在这些可能世界w中,我们有关于“K有别于人类”的知识e。尽管这些知识e不是必然的(因为e不在所有可能世界都为真),但却是某种起实际效用的偶然知识。因此,在这些可能世界w中,“K的智能是否可以超越HI”这样的问题仍有可能获得有认知意义的回答。  [对质疑二的回应]做这种模态上的弱化,是否就能(从认识论层面)成功“挽救”上述问题呢?表面上看,这个“弱化”处理似乎可行,甚至还较符合现实情况(因为现实情况下,我们似乎就是这样来区分K和人类的)。但是进一步分析将表明,其实这种做法也是行不通的。理由就是,基于上述对质疑一的回应,如果承认并不存在“K有别于人类”的必然知识,那么我们又凭什么认为可以有某种“K有别于人类”的偶然知识e呢?在我看来,这种偶然知识e充其量只能算作某种人为的协议(protocol)或因某些历史文化因素而约定俗成的习俗(convention)。因为我们仍可以进一步追问:做出这类协议或形成这类习俗,究竟源于怎样的深层理由或进一步原因呢?对于这个问题,似乎仅有如下两个可能的回答:要么根本没有深层理由或进一步原因,就是随机约定或形成的(例如,我们对河外星系中某颗恒星的随机命名),要么所谓的深层理由或进一步原因依旧需要依赖或源于某种恒定不变的本质特征。然而,上述针对集体人格同一性的分析业已表明(参见对质疑一的回应),这样的本质性特征并不存在。因此,完全有理由怀疑,这类协议或习俗可以得到任何可靠的辩护(justification)。换句话说,如果e仅是一类无法得到可靠辩护的协定或习俗,那么我们就有理由相信,e没有资格被称为知识。⑦因此可以认为,即使仅在某些可能世界w中,“K的智能是否可以超越HI”这样的问题,也不能获得具有认知意义的回答。  总结一下,如果基于集体人格同一性的论证是一个有效的论证,那么与本文目标问题密切相关的三个论题已经得到了辩护:(1)“AI是否能超越HI”(本文的目标问题),并不是一个纯粹的经验科学问题。因为它免不了要涉及集体人格同一性这个形而上学问题,所以原则上无法仅在科学的框架中获得有效解决。(2)本文的目标问题其实是一个没有认知意义的问题。因为,该目标问题具有认知意义的一个必要条件是,我们能拥有“K有别于人类”的必然知识。然而基于集体人格同一性的论证表明,该必要条件不可能成立。(3)“生产出一种新的能以HI相似的方式做出反应的智能机器”(AI研究的重要目标)是无法实现的。因为如果智能机器的确具有了和人类相似的智能,并伴随有和人类相似的智能行为或社会性行为,那么似乎就没有理由再认为它们和人类分属两个不同集体,而是应该同属一个集体。因此,严格地讲,AI研究的这个目标是无法实现的。换句话说,这个所谓的研究目标充其量只能做到增加同一个集体中的个体数量罢了。  不难设想,在下个一百年里,我们的物理-生理外形也许不会经历太大的变化。但是,下个一千年呢,或下个一万年呢?按照目前计算机科学和生命科学迅猛发展的趋势来看,等到下个一千年或下个一万年,我们后代的物理-生理外形又会是怎样?对此,多数人似乎会觉得难以设想。因此,凭什么来确定他们是我们人类的后代,而不是一个全新的物种?反之,又有什么可靠的理由说,他们不是一个全新的物种,而是与我们并没有本质区别,只是他们在其能力的诸多方面(包括智能)都已经远远地超越了我们而已?  ①以上两个例子参考了互动百科“人机大战”的相关报道。[2]  ②在哲学因特网百科全书“人工智能”这一词条中,[3]Hauser建议将有关AI的问题区分为两大类:第一类问题是“机器究竟能否思考”?这类问题由阿兰o图灵(Alan Turing)首先提出,而著名的图灵测试(Turing Test)则是关于此类问题的一种解答方案;另一类问题是“机器智能能否接近或超越人类的智能水平”?前者是AI的初阶问题,而后者则是高阶问题。本文重点关注的是后者。  ③请注意,本文一开始就预设了S是我们可以用来测试和衡量人类成员智力水平的唯一方式。  ④这种情况其实相当于上述第一种情形,即我们提供不出既适用于人类又适用于K的智力表S的情形。  ⑤有关AI论证的更多详细介绍,可参考玛格丽特o博登[8]和Hauser[3]的有关论述。前者是一个囊括了众多支持和反对AI论证的经典论文集,后者则对各种常见论证及最新进展一一进行了梳理、分类和论析。  ⑥限于篇幅,暂且处理在我看来最可能出现的两个质疑。  ⑦这将涉及关于“什么是知识”的争论。限于篇幅,不便展开。这里需要注意如下两点:(1)由于不可能得到有效的辩护,因此我们有理由认为e并不能算作知识;(2)若有人针对上述“有效辩护”提出异议,认为e即便不能获得认知层面的有效辩护,也有可能获得某种实践层面或伦常层面的有效辩护,因而e可以算作某种实践知识或默会(tacit)知识。但是在我看来,这么做仍旧无济于事。因为,即使e可算作实践知识或默会知识,我们真正关心的“K的智能是否可以超越HI”这样的问题,也不会因此而获得任何有认知意义的回答。原文参考文献:o[1]人工智能,引自“百度百科”,URL:/subview/.htm,.o[2]人机大战,引自“互动百科”,URL:/z/c/AI/index.html?prd=shouye_toutiao,.o[3]Hauser,L..Artificial Intelligence,In International Encyclopedia of Philosophy.http://www.iep.utm.edu/art-inte/,.o[4]Godel,K..On Formally Undecidable Propositions of Principa Mathematica and Related Systems[M].New York:Dove Publishers,1992.o[5]Dreyfus,H..Intelligence without representation-Merleau Ponty's critique of mental representation[J].Phenomenology and the Cognitive Sciences,).Special Issue:Hubert Dreyfus and the Problem of Representation,Jacobson,A.J.,Ed.,Kluwer Academic Publishers.http://www.class.uh.edu/cogsci/dreyfus.htmlo[6]Chalmers,DJ..Facing Up to the Problem of Consciousness[J].the Journal of Consciousness Studies,):200-219.o[7]Searle,J..Minds,Brains and Programs[J].Behavioral and Brain Sciences,):417-457.o[8]玛格丽特o博登.人工智能哲学[M].刘西瑞,王汉琦,译.上海译文出版社,2001.o[9]Olson,Eric.T..Personal Identity,in Stanford Encyclopedia of Philosophy.http://plato.stanford.edu/entries/identity-personal/,.
看过本文的人还看过
人气:34093 更新:
人气:23540 更新:
人气:22348 更新:
人气:18846 更新:
哲学园的更多文章
大家在看 ^+^
推荐阅读 ^o^
没有人愿意再看这部残忍的电影
出租车司机,请归还我们的手机······
为什么我们给父母的耐心总是那么少?
又一位美女倒下了,她是央视前美女主持人,年仅44岁!
猜你喜欢 ^_^
24小时热门文章
微信扫一扫
分享到朋友圈

我要回帖

更多关于 人工智能能超越人脑吗 的文章

 

随机推荐