图灵测试是图灵 人工智能能的标准吗

人工智能下一步,通过图灵测试 | 科学人 | 果壳网 科技有意思
人工智能下一步,通过图灵测试
图灵测试是什么?人工智能的下一步目标是什么?
本文作者:Drink-Me
Bletchley 公园的阿兰o图灵塑像 (Jon Callas/Flickr)
图灵是20世纪最伟大的数学家之一。作为现代计算机概念的缔造者,他的密码破译工作在第二次世界大战中起到了决定性的作用。在那个创意无限的计算机黎明时代,图灵率先提出的测试,说来似乎很简单:如果一台计算机通过对话,能使人们认定它是人类,那么这台计算机便被认为是具有智能的。
图灵试验的标准模式:C使用问题来判断A或B是人类还是机械。对象为:一个具有正常思维的人(代号B)、一个是机器(代号A)。如果经过若干询问以后,C不能得出实质的区别来分辨A与B的不同,则此机器A通过图灵试验。
在现代社会,无论是GPS导航系统与Google搜索引擎,还是自动柜员机与苹果Siri,更遑论象棋大师深蓝(Deep Blue)和满腹经纶的沃森(Watson),人工智能无处不在。但是,迄今为止,没有一台计算机通过了图灵测试。虽然如此,在尝试通过图灵测试的漫漫征程上,模拟人类思维的愿望不断激励着我们。这一原动力,对计算机科学乃至认知科学的发展,产生了深远影响。
而现在,我们有理由相信,一台内核代码已经写就的计算机,拥有通过图灵测试的能力。
“两项革命性的信息技术进步,可能将重新给被闲置已久的图灵测试,带来新的任务,”法国国家科学研究中心的认知科学家罗伯特o弗兰茨(Robert French)在4月12日的《科学》杂志上撰文称,“第一步是准备数量巨大的原始数据:输入的内容包括视频资料和完备的声音环境信息,以及随意的谈话内容和关于各种各样事物的技术文档。第二步是能够整理、收集、处理这些丰富数据的复杂技术。”
这有没有可能创造出相当于人类大脑的认知水平的神经连结网络?它能感知到我们所感知的吗?
图灵第一次进行他的测试,是在一次聚会时。他巧妙的实验令人印象深刻:参加者努力让评判者相信他们的性别是伪装的(图灵本人由于他的同性恋取向受到了严酷的迫害)。那时候,这种创建等效于人类大脑认知方式的低水平神经网络的想法还不存在。然而,复制人类的思想似乎很有可能,相比之下似乎更简单。
我们一般认为,人类的思维是逻辑性的,而计算机能够运行逻辑性的命令。因此,我们的大脑应该是可计算的。计算机科学家由此认为,二十年之内,或许不超过十年,我们就可以看到这样激动人心的事情:人们无法根据对话分辨出,对方是计算机还是人类。
这个过分简约的构想,被证明是建立在错误的理论基础上的。认知过程要远比20世纪中叶的计算机科学家及心理学家所设想的复杂得多。并且令人沮丧的是,在运用逻辑学描述我们的思想过程时,科学家遇到了非常大的困难。并且我们越来越清楚:根据人类大脑所特有的,适应快速变化的外界环境、整合信息碎片等一系列特殊功能来看,模仿人类思维几乎是无法完成的任务。
“对于现实中众多不确定性而言,符号逻辑本身过于脆弱,”斯坦福大学研究机器智能模拟的计算机科学家诺亚o古德曼(Noah Goodman)如是说。尽管如此,现在被我们认为已经失败的传统AI,技术上依旧颇具启发性。因为它们彻底改变了,我们对于人类大脑运作方式的看法。挫折过后,不断涌出的是许许多多极其重要的认知科学新观点。
直到20世纪80年代中期,图灵测试一直都是被放弃闲置的探索领域(尽管今天,它衍生出了专为虚拟聊天机器人设置的年度Loebner奖,同时即时虚拟广告机器人在我们的日常生活中也益发普遍)
(康奈尔大学创新机器实验室的两部虚拟谈话机器人正在进行非常有趣的唠嗑)
与此同时衍生出的是现代认知科学和人工智能的两个主要研究方向:
1.推算事件发生的概率,做出准确判断。(称为概率性)
2.在与简单、微小的程序的互动过程中,得出复杂的行为模式。(称为连结性)
和那些像深蓝(Deep Blue)(曾因击败国际象棋大师Garry Kasparov扬名)一样使用“蛮力”的电脑程序的计算特点不同,人们认为这些程序至少精确反映出了,人类思维中产生的某些特有现象。
迄今为止,所谓“概率性”和“连结性”这两大人工智能研究新思路,指导开发出了一系列现实生活中被广泛使用的人工智能产品:自动驾驶汽车,Google搜索引擎,自动机器翻译,以及IBM开发的能巧妙回答任何刁钻古怪问题的Watson电脑。
IBM的Watson电脑击败Ken Jennings,他是Jeopardy! 节目的人类最高水平玩家。
但是美中不足的是,它们在某些方面能力仍旧有限——“如果你说:‘Watson,给我做晚饭好不好,’或者‘Watson,写首十四行诗吧,’他会憋炸的。”古德曼这样说道。但是人们不断上涨的使用(或调戏,好吧)欲望使它们的性能得以飞快进步,数据库更详实。
“你所说过的、听到的、写下的、或者是读到的每一个字,每一句话,以及每一个看到的场景,每一段经历的声音片段,一并同其他成百上千、甚至成千上万的人们的相关数据,都被录制下来并可随时调用。久而久之,甚至触觉以及嗅觉传感器也可以被接入以全面丰富我们这个充满图像和声音的数据库。”作为对MIT(麻省理工)研究员戴伯o罗伊(Deb Roy)的相关研究的延伸,弗兰茨在《科学》杂志上这样设想。戴伯曾经录制了9万小时的视频,内容是关于他襁褓中的儿子清醒状态下的认知发展过程。
假定我们拥有可以编目、分析、串联和交叉全部海量信息的处理软件,以及备有上述数据库和分析系统的程序,应该完全能够使得一台计算机回答现今的AI们无法回答的棘手问题。这最终意味着通过图灵测试。
密歇根大学的人工智能专家赛汀德o辛(Satinder Singh)对数据所显示的前景充满了信心:“大容量数据库终会造就一台极具灵活性的人工智能机器。”
但这样来说,梳理所有曾经学习过的问题数据就显得重要了许多。计算机要懂得:什么更值得记住,什么更值得去预测。可是,如果你把一个孩子领进屋内,让他自由自在、随心所愿,不交给他任何任务,他为什么会自发地做他想做的事情呢?所有的这类问题都变得异常有趣。
“为了变得更渊博,更灵活,更有能力,一个人必须要被动力和好奇心所驱使,从而提炼出重要的事情,”辛说:“这些对计算机来说,都是巨大的挑战。”
“一架机器要通过图灵测试,一定要充满着人类的情感与欲望吗?。就像是弗兰肯斯坦(玛莉o雪莱(Marry Shelley)笔下的人造人),或者有生命的泥人(Golem希伯莱传说中用粘土、石头或青铜制成的无生命的巨人,注入魔力后可行动)一样吗?”墨西哥国立自治大学的计算机科学家卡洛斯o格申森(Carlos Gershenson)充满了疑问。但是这和更基本的问题一样,难以回答。
“这做起来一定很困难,可是我们这样做的目的是什么?”他充满了疑问。
编译自wired网站: Artificial Intelligence Could Be on Brink of Passing Turing Test
作者: Brandon Keim
你可能感兴趣
怎么都没有人了
机械工程学士
那个清华的小图不就挺智能、挺人性化的嘛,满嘴的潮语,智能化的目的是为了解决众多都市男女的寂寞问题
我勒个去的标题党…
果壳阅读译者
俩AI聊天挺逗的……
刚干完Udacity上 自动驾驶汽车 的第一星期课程,嗯……汽车定位的算法正好就是“推算事件发生的概率,做出准确判断”……
的话:俩AI聊天挺逗的……将来有可能是AI能分辨出对方是人类,但人类分不出AI……有点恐怖……
真这么牛?给它一个“呵呵”看它怎么接
泥瓦匠小组管理员
向伟大的图灵先生致敬。。
的话:真这么牛?给它一个“呵呵”看它怎么接给他个“去洗澡了”看他怎么接。。
要有学习能力?
如果人类可以造出与人类具有同等智慧的机器,这意味着什么?我觉得这意味着人类历史的终结因为人类完成了上帝的职责,那么人类就不再是单纯意义上的人类了上帝也许是我们臆想的产物,即使存在,TA也不在这个地球上但时,当智慧的机器与制造它们的上帝共享这个地球上时,接下来会发生什么?我想,应该是一场你死我活的斗争吧这时,阿西莫夫的三定律还会有效吗?别忘了,它们拥有与我们同样的智慧啊!
HAO DUO REN A !
国际经贸专业,乐动黑白小组管理员
的话:我勒个去的标题党…这不是我的标题啊泪目TT
的话:这不是我的标题啊泪目TT谁动了你的标题?
空间信息与数字技术专业
我有一个室友人人上说自己是男的 结果现在好多女生加她。。。
这两个ai聊的太牛x了!!
果壳阅读译者
的话:将来有可能是AI能分辨出对方是人类,但人类分不出AI……有点恐怖……然后就有了……银翼杀手!
智能科学专业
如果带感情。。。。还是算了吧。。。。如果只是开汽车方面,已经很像人了。。。——————以下是猪的签名——————————才疏学浅,请前辈们指导哈~
"一架机器要通过图灵测试,一定要充满着人类的情感与欲望吗"机器一定要有人类的欲望吗?机器一定要成为人吗?人造生命一定要有人类的欲望吗?人类一定要造更多的人吗?。。。。。
想起一篇写的巨逗的《ACE小姐的心事》
的话:想起一篇写的巨逗的《ACE小姐的心事》我看过
这些AI和果壳网的AI比起来都弱爆了啊,呵呵
录音爱好者,万有青年养成计划入围选手
图灵测试……能令计算机理解人类情感和音乐之前,先让它能像人一样处理图像信息吧。。。
成为真正的智能的标准是:可以意识到自己的存在位置、意义以及未来
显示所有评论
(C)2016果壳网&&&&京ICP证100430号&&&&京网文[-239号&&&&新出发京零字东150005号人工智能不等于类人智能:超越图灵测试的世界观|人工智能|智能汽车|机器人_业界_新浪科技_新浪网
人工智能不等于类人智能:超越图灵测试的世界观
  【编者按】本文原作者为纽约时报的Benjamin H. Bratton,由新智元曾辉、Janet Zhao、牟文龙翻译,贺慢慢校对完成。
  人们对于人工智能这个热点话题仍说法各异。
  像史蒂芬·霍金、、比尔·盖茨这样的专家,最近越发看重它的潜力和威胁。在读完尼克·博斯特伦《超级人工智能》一书后,马斯克大声质问,人工智能是否是“我们现在最大的威胁”。
  我们对于人工智能流行的说法被人类伦理所扭曲了。人们对于人工智能的分歧不仅仅体现在它的威胁上,对于强人工智能是否会出现也有不同的看法。一些人认为具备人类相当水平的“强人工智能”(hard A.I。)永远不可能存在,但也有人认为这种趋势将势不可挡。但在很多情况下,这些争论可能偏离了真正的含义:人工智能在存在和思想上,可能和人类自身形式有很大的不同。
  简而言之,这种观点表明,一种成熟的人工智能不一定是仿人的智能,或者由我们支配。如果我们以错误的方式去寻找人工智能,它出现的形式可能就会是:难以识别、风险扩大并且延迟收益。
  这不仅仅是对于未来的担忧。人工智能早已走出实验室,并且深入日常生活。“弱人工智能”(Soft A.I。),比如的Siri和的推荐引擎,以及人工智能基础设施,比如高频算法交易,智能汽车和工业机器人已成为日常生活的一部分,与我们的工具使用、城市发展、经济建设和商品贸易息息相关。
  不幸的是,人工智能的主流观点,起码在无数的电影、游戏和书籍中描述的,依然假定那些与人相似的特征(愤怒、嫉妒、困惑、贪婪、骄傲、欲望,更不用说冷漠疏远)是人工智能最重要的部分。这种错误的人类中心主义也许和现在的人工智能研究相去甚远,但这也侧面反映了我们的文化如何看待自我和高级合成认知(advanced syntheticcognition)。
  在斯蒂文·斯皮尔伯格2001年的电影《A.I. Artificial Intelligence》中,那个小男孩机器人想要成为真正的男孩,虽然他只有一颗小金属心灵,而天网在电影《Terminator》中则沉迷于人类毁灭。我们不假思索的假定,斯坦利·库布里克和亚瑟·查理斯·克拉克1968年的电影《2001: A Space Odyssey》里的巨石Monoliths是在和人类主人公大卫交流,而不是他宇宙飞船上的人工智能:HAL 9000。
  我认为我们应该停止这样的想法:真正的人工智能必须深切考虑到人类,尤其是以人作为它的关注点和动机。也许我们真正害怕的,并非是一台杀死我们的大机器,而是它认为我们无关紧要。这比被视作敌人更加糟糕。
  除非我们假设,类人智能代表了所有可能的智能形式(这当然是自欺欺人),否则为什么要根据和我们的相似性来定义先进的人工智能?毕竟“智能”非常难以定义,而人类智能又无法简单地包含所有可能性。即便在实验室它具有实用的价值,但从文化角度,它还是适得其反,是不道德甚至是危险的。
  我们不需要如此狭隘和自恋的人工智能观念,所以不能仅仅把我们自身的特性映射到机器的版本中。如果把这种狭隘的观念作为人类和人工智能沟通的基础,这个前提就已经是错误的了。更不用说,历史上不同群体的“第一次接触”,即使是在人类之间,也往往是不愉快的经历。
  从雷德利·斯科特的《银翼杀手》到斯派克·琼斯的《她》,这些无数的科幻电影在测试人工智能的能力的时候,都要看它是否能被“以人相待”。这种观点从人工智能研究开始一直伴随到现在。这最早可以回溯到1950 年,英国数学家阿兰·图灵发表了论文《计算机器与智能》,那时候他提出了“模仿游戏”测试,也就是我们今天说的“”。虽然版本有所不同,但它揭示了我们研究人工智能文化和道德的方法论定义了人工智能本身:无论是好的还是坏的。
  最让人熟悉的版本是:提问者向两个隐藏的参赛者提问,一个是人,另一个是计算机。图灵认为,如果提问者不能区分两者的身份,并且计算机能成功假扮成人,那么就成功通过测试。从实践目的来说,计算机不就是“智能”的吗?
  计算机需要假装成人以通过人类的测试,而图灵需要隐藏同性恋倾向以通过“直男测试”,这真是有趣的巧合。
  遗憾的是,更多的人仅仅“知道”图灵测试,而没有真正阅读过。图灵的文本是非凡、奇妙而令人惊讶的。图灵说他的测试是一种流行客厅游戏的变种:有两个藏在幕后的参赛者,一位女性(参赛者A)和一位男性(参赛者B),他们需要努力说服,让第三个人认为自己是一名女性,通过手写回答问题的方式。为了获胜,一个参赛者必须令人信服的扮演自己,而另一方需要假扮成另一种性别。图灵用计算机取代了玩家A,在字面上你可以理解为,计算机不仅仅要扮演一个人,而且得扮演成女性才能通过测试。
  在其他版本的测试中,参赛者B可以是男性,也可以是女性。游戏里可以一个人假装、或者两人假装、抑或两人都不假装,也可以是完全不同的游戏。既然我们让计算机参赛,我们可以让它假扮成女性或男性,这个角色假扮成女性,让询问者分不清男女。也可以玩的更加复杂,计算机假扮成试图假装女人的男人,同时还有一个真的人也在这么做。甚至说,让计算机假扮成为这样的女性,她假扮成试图假装女人的男人。毕竟在现实生活中,这些情况都有可能发生。
  莫腾·泰杜姆导演的《模仿游戏》获得了2014年奥斯卡大奖。在那个同性恋被视作犯罪的年代,即便是身为数学家的图灵也得假扮成“直男”。而当他的性倾向暴露时,不得不接受可怕的“化学阉割”治疗。最终,在巨大的身体和精神痛楚下,图灵自杀了。这是历史上荒诞的插曲,当时他对击败希特勒军队的贡献还是一个国家机密。直到最近,图灵才得到了英女王的皇家豁免,然而类似法律下被惩处的其他成千上万的英国男子却未被豁免。
  计算机被要求通过测试来证明智力,和图灵被要求假扮成直男来通过测试,这里面有着讽刺的对应,既哗众取宠也极度不公平。
  无论是以白人或黑人、男人或女人的身份通过测试,基本上都取决于他人的观察和解释。因为其他人都已经习惯于传统的暗示(种族,性,性别,物种等),所以无论谁想通过测试,都只有和观察者进行共谋。至于人工智能是否愿意这么做,或者仅仅被拖过来完成测试,那就是另一个问题了。无论如何,通过与否更多关乎观众,而非被测试者的表现。
  我们最好这样假定,在宇宙中思考是多样化的行为,即便是外星人也会思考,人类并非是特殊的个案。相对于人类教育机器如何思考,人工智能真正的哲学问题是,机器如何教育人类在一个更完整和真实的维度里思考。
  过去我们总是根据模拟人类思维的能力来定义人工智能存在,在未来看来,这种想法其实只是一种奇怪的物种偏见。在这种想法下,早期人工智能研究者试图在机器中重建人类思维,但这根本行不通。相反,现代的研究者认为,如果机器能在特定领域里把事情做好,就可以被称作“智能的”,而不是它能在多大程度反映出人类思想。Stuart Russell和PeterNorvig(现任研究院主任)在他们重要的著作《人工智能》中就指出了,对生物形态的简单模仿并不足以应用于复杂精巧的现代科技:飞机并不以鸟类的方式飞行,我们在测试飞机是否是“真正的”飞行器时,当然也不会去看看鸟类是否会把飞机与同类混淆。既然如此,为什么人们对人工智能采用了这样的判断标准呢?现代务实的人工智能研究并不会把图灵测试作为成功的标准,然而在流行文化中,这种人类中心主义的测试却在长期受到重视。人们对于人工智能的想象大多数还停留在电影中会说话的动物这一层次上,而这其实不过是一种幼稚的口技而已。
  有人会说:把模仿人类形态作为人工智能的先决条件不够科学,是一种“前哥白尼”时代的观点。那么这种观点真正的问题在哪里呢?如果在未来,我们日常所见的人工智能都具有某种人性,情形会怎么样呢?好的方面是我们会与机器智慧建立一种更为真诚而清醒的关系,而坏的方面是,如果我们对生命体抱有这样的幻想,将会损失更多可能性。有些哲学家已经思考赋予有感情的机器以伦理权利了,但我想要说的不是这个,事实上,我们在思考这些人工智能体的时候,应该寻找更为真实的视角。
  马斯克、盖茨和霍金关于人工智能威胁的言论引起了广泛的关注。他们的观点很重要,但是,恐怕大多数读者都误解了他们。如果我们像1942年阿西莫夫“机器人三大定律“一样,寄希望于给机器人编程,禁止它们伤害人类,首先我们就要让机器人能够理解什么是“人类”,以及什么是“伤害”。机器人并不需要做什么恶毒的行为就可以伤害到人类,一个最简单的例子就是:它们只要把人类正常含义的指令以一种机械而极端的方式执行,就足以带来一场灾难。人工智能真正的威胁不在于机械故障或者对于反人类道德的举动,而是在于它们智力强大,却对人类漠不关心。如果我们像以前那样,依据它们与人类的相似性来定义人工智能,并假定它们全心专注于人类事务,我们就更加面临着这方面的风险。
  不管想象中的“强人工智能”是否真正会出现,如果我们总是坚持一种我们已经知道其错误的信念,我们将会错失发现和理解人工智能的良机。在1950年的那篇文章中,图灵提到了对他设想的人工智能的很多反驳意见,令人印象深刻的是,他把对人工智能的反对与当年天主教会反对哥白尼天文学相类比。哥白尼的发现使人们放弃了自己处于宇宙中心,具有绝对优越性的错误观点,这种发现是不可估量的巨大成就。这使得人类更清醒地认识世界,把世界实际的状态,而不是从我们这个角度能够观察到的状态,作为思想的基础。图灵把这些反驳意见作为“神学的反对意见”。另一方面,也会有人说,不管图灵测试有多么悠久,把类人智能作为人工智能的先决条件,也同样与“前哥白尼时代”的人类中心主义无异。先进的、不像人类的人工智能的到来,可能会带来一场新的觉醒,使我们对于我们自身、我们所处的环境、以及什么是真正的“智能”有更为清醒的认识。这样我们建立的世界模型就更加接近世界真实的样子,我们对于未来也会更有信心,这总是一件好的事情。
  最后,这种想法延续了过去人类与技术的关系,这种关系已经把我们带到了“第六次物种大灭绝”的边缘。按理说,人类中心主义本身并不是来自走向疯狂的技术,而更多地是由于人文主义的遗产,使得我们总是幻想世界是按我们人类的设想,依人类的需要而建立的。这些幻想常常能从现代的意见领袖口中听到,他们向大家布道,勾勒了一个美好的世界,在那里机器是为人的需要和愿望而服务的。如果你真的这样认为,就上网查一下“杀猪机器人”(不要真的这样做),然后我们再来谈谈一个机器完全服从于人的需要的世界是什么样的。
  有人或许在想,我们人类社会也经历了从奴隶制度、神权制度到法制社会,所以即便到了2015 年,对机器来说又何尝不可?这种情绪(更精确地说,是这种技术哲学)本质上就是带来人类中心主义困境的原因,如果继续坚持这种观点,我们也很难顺利走向人工智能。人类如果继续坚持这种妄自尊大的习俗,未来将会付出过于高昂的代价。现在,到了我们改变的时候了。
  扫一扫,一起坐看风云变幻。扫描下方二维码关注新浪科技官方微信(也可微信搜索:techsina或新浪科技)。
文章关键词:
&&|&&&&|&&&&|&&
您可通过新浪首页顶部 “”, 查看所有收藏过的文章。
,推荐效果更好!
看过本文的人还看过图灵测试是人工智能的标准吗?--百度百家
图灵测试是人工智能的标准吗?
分享到微信朋友圈
随着人工智能成为热门话题,“图灵”(Alan M. Turing,~)这个名字也逐渐广为人知。一个常见的说法是把他提出的“图灵测试”作为人工智能的标准或定义,并以此为由称他为“人工智能之父”。
随着人工智能成为热门话题,“图灵”(Alan M. Turing,~)这个名字也逐渐广为人知。一个常见的说法是把他提出的“图灵测试”作为人工智能的标准或定义,并以此为由称他为“人工智能之父”。我下面要反驳这种说法,理由是:
(1)这个说法不符合人工智能的史实;
(2)把图灵测试作为人工智能的定义是不恰当的;
(3)其实图灵本人并不是这个意思。&
我无意贬低图灵对人工智能的重大贡献,只是试图澄清一些误解,并指出这些误解在当前人工智能讨论中所造成的问题。我不希望这些问题被错误地算在图灵名下。
1图灵和人工智能到底是什么关系?
图灵大概是最早认识到“计算机”除了完成数值计算之外还能从事其它智力活动的人之一,并且是第一个对此进行了系统思考和深入分析的。有证据表明,他早在1941年就开始考虑在计算机上实现“智能”(或者说“思维”,在这个讨论中这两个词差别不大)的可能性了,并在1948年写了以“智能机器”为题的报告,尽管他最广为人知的有关著述是在1950年发表的《计算机器与智能》[1]。
在这篇历史文献中,图灵开宗明义地要大家考虑机器是否能思维的问题。为了避免“思维”一词在解释上的混乱,他主张只要计算机在语言行为(对话)上和人没有明显差别,就应该算是“能思维”或“有智能”了。这就是后来所称的“图灵测试”。他认为可以编制一个“儿童”程序,然后对其进行教育以达到成人的智力水平。图灵自己在1948年曾和朋友合作设计过一个国际象棋程序,但在他1954年去世之前没能把他关于智能机器的设想充分展开。
阿兰·图灵
“人工智能”作为一个研究领域,公认是在1956年夏的达特茅斯会议上形成的。这个只有十来个人参加的会议不但给这个领域取了名,而且涌现了其主要奠基人:麦卡锡、明斯基、纽维尔、司马贺。这四个人,以及他们分别在斯坦福、麻省理工、卡内基梅隆建立的研究中心,主导了这个领域前几十年的研究方向。他们远比图灵更有资格被称为“人工智能之父”,而图灵更适合被称为“先行者”。&
比名号更重要的是:这几位对智能的理解和图灵有重要的差别。他们当中没有一个是以“通过图灵测试”作为自己研究工作的目标的,并且都或明或暗地对这个测试表示过不以为然。在达特茅斯会议的计划书中,人工智能问题被说成让计算机的行为符合人们对智能行为的认识。以此为起点,主流人工智能一直是以“让计算机解决那些人脑能解决的问题”为工作定义和划界标准的,而并不要求系统的具体行为和人不可区分。以计算机围棋为例,“把棋下好”和“把棋下的和人下的一样”是两个不同的研究目标。出于这种考虑,在主流人工智能文献中提到图灵测试时,一般都是只承认其历史价值,而否认其对研究工作的现实指导意义的。就在不久前,世界上最大的人工智能协会AAAI的机关刊物《人工智能杂志》的2016春季号还出了一期专刊来讨论图灵测试的各种替代方案。
以通过图灵测试为目标的对话程序一般称为“chatbot” 。这个词和机器人(robot)一词相近,故常被译作“聊天机器人”,但其实应当译作“聊天程序”,因为它们都是专用软件,而非专用硬件。这类工作在历史上长期被大部分人工智能研究者视为旁门左道或哗众取宠,其中最著名的例子的是魏增鲍姆在1966年编写的“伊莉莎”(ELIZA)。这个程序只凭一些简单的花招就使得很多使用者相信他们是在和一个人对话,以至于后来产生了“伊莉莎效应”这个概念,专指一个计算机系统的使用者和观察者以拟人化的思路解释系统的行为,因此赋予了该系统许多它本来根本不具有的品质。这种现象在对“阿尔法狗”的评论中又一次得到了充分展现。近来,主要拜深度学习所赐,聊天程序的研发终于被接纳成了主流人工智能的一部分,而图灵测试在这个领域中自然是一个恰当的标准。但尽管如此,这个标准也不能推广到人工智能的其它子领域。因此,至今以通过图灵测试为目标的工作仍只占人工智能领域中很小的一部分。
2图灵测试哪里不对了?
反对图灵测试的意见来自若干不同的方向。
主流人工智能既然是以“解决那些人脑能解决的问题”为目标,自然是要“解题能力”越高越好,而不在乎“解题行为”是否和人一样。如果对某个问题有更适合计算机的解决办法,那为什么还一定要像人脑那样做呢?图灵已经预料到,要通过他的测试,计算机要会装傻和撒谎才行,因为在某些方面(如算数)能力太强就不像人了。《人工智能杂志》专刊所提到的替代图灵测试的主要理由也是它往往鼓励系统采用欺骗手段,而非真正展现其认知能力。&
香农(对,就是创建信息论那位)和麦卡锡在1956年的一篇文章中提出图灵测试的缺点是:“在原则上”它可以通过查一张列出所有问题和相应答案的清单来做到,因此和我们关于思维的直观不符。具有讽刺意味的是,随着计算机硬件的发展,现在的一些“智能系统”的确是按这个“原则”构建的。哲学家塞尔的“中文屋”思想试验也是假定一个计算机可以用这个平淡无奇的办法通过图灵测试,而他以此论证真正的(强)人工智能不可能实现。
如我在《当你谈论人工智能时,到底在谈论什么?》中解释的,“人工智能”固然是要造“像人脑那样工作的计算机”,但关于“在哪方面像人脑”的不同看法已经将研究引向完全不同的方向。图灵测试是要计算机在行为上像人,而主流人工智能是要在解决各种问题的能力上像人甚至超过人。这两种研究都有价值且有相互联系,但并不是一回事。这正是主流人工智能不接受图灵测试的根本原因。
我自己的研究目标既非再现人类行为,也非达到或超越人类问题求解能力,而是让计算机遵循人所体现的信息加工原则。我认为这个原则就是“在知识和资源不足时适应环境”(详见《王培专栏|人工智能:何为“智”?》,而其它具体的“思维规律”都是建立在这个基础上的。根据这个原则,一个智能系统的行为(输出)依赖于它的经验(输入)。由于一个人工智能系统不会有和人类完全相同的经验,它就不会有和人类完全相同的行为,即使其输入-输出关系和人的基本一样。因此,我的系统不是以通过图灵测试为目标的。比如说,它对一个问题的回答取决于系统自身对此问题知道些什么,而不是一个普通人对此问题知道些什么。
3图灵错了吗?
在这个问题上最令人哭笑不得的一点是:图灵从来没有建议过把他的测试作为“思维”或“智能”的定义。
尽管图灵的文章《计算机器与智能》被广泛引用,但很多人可能只看了他开头介绍“模仿游戏”(即后来被称为“图灵测试”)的那一部分。我这么说是因为他的下面一段话很少被提到:
“难道机器不会做某些应该被说成思维但和人所做的很不同的事吗?这是个很有力的反对意见,但我们至少可以说,如果能够成功地玩模仿游戏的机器可以被构造出来,我们无需为这种反对意见而烦恼。”
这段话说的很明白:图灵把通过他的测试作为“能思维”的充分条件,而非充分必要条件(也就是定义)。这就是说和人行为一样必是能思维,但和人行为不同也未必就不算思维。在1952年参加BBC的一个广播节目时,图灵明确表示他没有试图给“思维”下一个定义,而只是想在人脑诸多性质之间“划一条线”,来区分那些智能机器需要具有的和那些不需要具有的[2]。&
既然图灵没有给“思维”或“智能”下定义,而人工智能的领军人物们也没有接受这个测试,那“图灵测试是人工智能的定义”是谁说的呢?这大致是一些对人工智能半懂不懂的人士的贡献,而好莱坞也难逃其咎。一旦这个简单易懂的说法传播开来,大概谁也拿它没有办法了,更不要说图灵英年早逝,没机会反复辟谣了。
综上所述,在主流人工智能历史上,图灵测试从未被接受为标准或定义,而图灵也不是人工智能主流研究规范的奠基人,尽管他的观点的确对很多人产生了不同程度的影响。图灵测试的弊端是“和人的行为完全一样”不应被当作“智能”的必要条件。虽然实际上图灵从来也没有这个意思,他的文章的确给了不少人这种误解。
尽管如此,我仍认为图灵对人工智能做出了巨大的贡献。这体现在下列方面:
他是最早明确指出“思维”和“智能”可能在计算机上实现的人,并且清醒地看出智能机器不会和人在一切方面都相同。比如在《计算机器与智能》中,他认为一个智能机器可能没有腿或眼,这就是说一个靠轮子运动和靠声纳感觉的机器人完全可能有智能。与此相反,至今仍有不少人以为真正实现人工智能的唯一办法是全面地、忠实地复制人的一切。尽管图灵测试把这条线画的离人太近,但总是一个有意义的开端。
在《计算机器与智能》中,他分析并驳斥了9种对思维机器的反对意见。从那时(1950)至今,对人工智能的反对意见层出不穷,但细细看来都不出他的预料,只是具体表述“与时俱进”了而已。尽管图灵当年的反驳没有彻底解决问题,他的预见性仍令人惊叹。就冲这一点,他的文章就没有过时。
他认为我们应当设计一个通用学习系统,并通过教育使其拥有各种具体技能。与此相反,主流人工智能系统的能力仍主要来自于初始设计,即使目前的“机器学习”也仅限于某种特定的学习过程(详见《计算机会有超人的智能吗?》)。如果他没有那么早去世,人工智能可能会有一条不同于达特茅斯诸君所引领的路线。
在我看来,图灵的主要局限是没有看到躯体和经验对概念和信念的重要影响。一个没有腿和眼的机器人完全可以有智能,但是不会有和人类完全相同的思想,因此也就不会有和人类完全相同的行为,即使我们只关注其语言行为也是如此。如果这个系统的智力足够高,它的确可能靠对人类的知识通过图灵测试(所以这个测试可以作为智能的充分条件),但这不应该是我们说它有智能的唯一依据。
4和我们有什么关系吗?
以上分析的目的不仅仅是澄清历史事实,更是要据此评说目前的状况。
把图灵测试作为人工智能的标准或定义直接导致了对这一领域成果评价的片面化、肤浅化、娱乐化。既然一个计算机系统不可能在所有方面同等水平地和人相像,那么聚焦于其外在行为的似人程度就意味着忽略其内在机制的似人程度。在最近的新闻和讨论中不难发现这一倾向的种种表现:
以聊天程序的蒙人水平来评价其智力,
以人的智商标准来评估计算机智力发展水平,
以高考成绩来衡量计算机智能,
以在作曲或绘画上“以假乱真”的本事来体现人工智能的创造力,
以似人的“面部表情”或“肢体动作”来表现机器的“感情”。
这些工作不能说毫无意义,但仍是主要靠伊莉莎效应来赢得承认,即靠观众想“只有聪明人能这么做,现在这个计算机做到了,所以它一定聪明”,而完全忽略这些行为在计算机中的产生机制,尤其是它们和系统设计、以往经历、当前情境等因素的关系。比如说,尽管有理由认为一个人工智能系统可能有情感机制和审美能力(详情以后再说),那也不意味着它注定会“美我们之所美”、“爱我们之所爱”。贾府上的焦大是不爱林妹妹的,但这不说明他没有爱憎。实际上如果他表现出爱她,那反而不是真感情了。既然贾宝玉的情感和审美标准不能推广到其他人,有什么理由认为人类的情感和审美标准可以推广到其他智能物种呢?
一个领域的成果评价标准如果是不合适的,后果会很严重。不但研发工作会被误导,公众的期望也会落空,而且会错过真正有价值的方向。在人工智能领域中,这仍然是个大问题。
参考文献[1] Alan Turing, Computing Machinery and Intelligence, Mind 49: 433-460, 1950[2] Alan Turing, Richard Braithwaite, Geoffrey Jefferson, Max Newman, Can Automatic Calculating Machines Be Said To Think? A broadcast discussion on BBC Third Programme, January 14, 1952
分享到微信朋友圈
在手机阅读、分享本文
还可以输入250个字
推荐文章RECOMMEND
热门文章HOT NEWS
三星公布了Note 7召回政策细则,不出意料的还是双重标准?
百度新闻客户端
百度新闻客户端
百度新闻客户端
扫描二维码下载
订阅 "百家" 频道
观看更多百家精彩新闻

我要回帖

更多关于 图灵机与人工智能 的文章

 

随机推荐