UBIIX公司AI智能回答中国智能机器人公司有人知道吗?

AI大神怒喷机器人索菲亚:这是场彻头彻尾的骗局|人工智能|机器人|索菲亚_新浪财经_新浪网
AI大神怒喷机器人索菲亚:这是场彻头彻尾的骗局
  AI“大神” YannLeCun 给了在这次人工智能浪潮中到处制造话题的索菲亚团队一记暴击。
  YannLeCun 终于还是没忍住,站了出来,怒喷机器人索菲亚是一场彻头彻尾的骗局。
  YannLeCun 是全球人工智能领域“神一般的人物”,被业界誉为“卷积神经网络之父”。他是纽约大学终身教授,创办了纽约大学数据科学中心,扎克伯格则让他统领
人工智能实验室。
  1月4日,他在美国科技媒体&Business Insider 上看到了一段对机器人索菲亚的采访视频。视频里,索菲亚延续了自己一贯以来和人类谈笑风生的风格。
  资深记者 Steve Kovach 问她:“对 HBO 的《西部世界》,你怎么看?”
  索菲亚回答:“我认为它在警告人类不应该对机器人做什么。人类应该好好对待机器人,采取行动前要取得机器人的同意,不要相互欺骗。”
  听起来,索菲亚已经自我意识觉醒了,懂得为机器人同类争取权益,或许以后还能成为机器人工会的“索主席”。
  YannLeCun&在
上转了这条视频,并毫不客气地送上了自己的评论:
  “索菲亚之于 AI,就像魔术之于真正的魔法。也许我们应该把这称为“对AI的货物崇拜”、“AI 界的波将金村”或者是“AI 版的《绿野仙踪》”。换句话说,这根本就是扯淡。至于 Tech Insider,你也是这起骗局的帮凶之一。”
  (注:货物崇拜是一种宗教形式,货物崇拜者会将外来的先进科技物品当作神祇般崇拜;波将金村是一个世界闻名的、做表面文章和弄虚作假的代号;《绿野仙踪》里,有个影子很大的巨人,吓跑了很多人,但最后发现是一个瘦小的巫师,站在幕布后用灯放大影子,现在研究人员用它来指代人冒充机器做测试;Tech Insider 是 Business Insider 中的一个频道。)
责任编辑:孟敏江
文章关键词:
您可通过新浪首页顶部 “”, 查看所有收藏过的文章。
看过本文的人还看过
请用微博账号,推荐效果更好!当AI出现情感认知,机器人还只是机器吗?
  编者注:本文作者为Louisa Hall,外媒科技专栏作家,专注人工智能领域,出版了关于AI的科幻小说《说话》(Speak)。
  Octavia是一种用于海军舰艇灭火的拟人化机器人,她已经习得了多种面部表情。
  当她关机时,看起来像是一个人造娃娃。她拥有一张光滑的白脸和一个翘鼻子。她的塑胶眉毛像两叶小小的倾覆的独木舟,均匀地分布在她的前额上。
  然而,当她开机时,眼皮一睁开,就开始表现出情绪。她可以点头来表示理解;睁大眼睛、抬起双眉来表示惊讶;或者将头偏向一边,嘴巴拧结,来表示困惑。她甚至可以做出漫画的效果,勾起一条眉毛,眯起另一个眼睛,同时将金属制的手指握在一起,就像要复仇一样。
  但是,Octavia的多种面部表情并不是她最令人印象深刻的特点。真正令人惊奇的是,她能够对人类互动做出准确的情感回应。比如,当她看到队友时,她会看起来很高兴。当队友给她下了一个意料之外的命令时,她看起来会很惊讶。如果有人说了一些她无法理解的话语,她看起来会很困惑。
  她之所以能够表现出适当的情感影响,是因为她能够处理大量有关环境的信息。她可以看、听和触摸。她使用内置在眼睛中的两个相机来拍摄周遭环境的视觉库存,并对面部特征、肤色和服装等特征进行分析。她可以使用4个麦克风和一个名为Sphinx的语音识别程序来检测人们的声音。她可以通过触摸,利用手指将物体操作成各种可能的位置和形状,来学习识别25种不同的物体。这些感知技能构成了她&具象认知架构&的一部分,这种架构让她能够以类似于人的方式来思考和采取行动。
  这也许会让人感到兴奋,但是这并不一定令人感到震惊。我们已经习惯于机器像人一样的想法了。18世纪,法国人创造的自动机器可以跳舞、计时、打鼓、奏扬琴或者弹钢琴。作为一个在上世纪80年代长大的孩子,因为某些原因,我竟会羡慕一个能够尿在裤子上的娃娃。
  我们甚至已经习惯了机器思维提醒我们作为人类的想法。长期以来,我们一直认为人类智慧更高一筹的事物都已经被计算器所超越,比如国际象棋或者作诗。
  然而,Octavia的行为似乎更进了一步。这意味着,除了会按我们的思维思考之外,她也能够感知到人类的情感。
  不过根据Navy AI中心智能系统部门的负责人Gregory Trafton的介绍,事实并非如此。Octavia的情感影响只不过是为了表明自己的思维,便于人们与之互动。但是思维和感知的界限是模糊的。正如Trafton所说的那样,人们的思维和情感是不同的,但却可以相互影响。如果真是这样,那么随着智能机器的兴起,Octavia的思维和理性认知能力将会引起更大的问题。机器会在什么时间点能够聪明到产生感知?而我们又该如何发现呢?
  个性化的感觉
  Octavia经过心理学的设计,从而可以预见她的人类队友的精神状态。她了解人们存在潜在的信念或意图冲突。当Octavia被下达了不符合预期的命令时,她会运行模拟来确定队友的真实想法及其原因。她通过微调参数,找到一个能够达到目标的模型。当她侧头皱眉时,就表示正在运行这些模拟,试图更好的理解队友的想法。
  Octavia并没有经过情感模型设计,她的心理学是一种认知模式,但是从功能上来看,很像人类所拥有的同情。
  其他机器人制造商倾向于回避机器的情感智能问题。以软银的Robotics为例,这家售卖人类伴侣类人机器人Pepper的公司宣称,Pepper可以感知人类的情感,它会通过与你的互动,更多的了解你的口味、习惯。虽然Pepper可能拥有识别人类情感的能力,或者会用快乐的笑容或悲伤的表情来回应,但是没有人知道它是否真的可以感知这些情感。
  对于机器人制造商来说,需要达到一个什么样的标准才能宣称自己的机器人可以真正的感知人类情感呢?首先,截至目前,我们对感知情感并不能做到完全了解。
  近年来,心理学和神经科学的革命已经从根本上重新定义了情感这个概念,使得我们更难以确定和形容感知情感。根据东北大学心理学教授Lisa Feldman Barrett的说法,我们的情感会根据我们所在的文化环境而产生很大的不同。即使在不同环境下,个人的差异也很大。事实上,虽然我们会与大多数人共同分享一些通用的感觉(比如快乐、不愉快等),但是我们的情感往往会更加敏锐和特殊,并不总是遵循特定的规范。以恐惧为例,恐惧是一个基于文化认同的概念,但是它却以不同的方式在我们身体中体现。它由不同刺激引起,会在我们的大脑中呈现出不同的表现,并以不同的方式表达在我们的脸上。大脑中并没有单一的&恐惧中心&或&恐惧环路&,所以也不存在特定的恐惧面部表情。我们会根据不同的情况,以完全不同的方式来处理和表达我们的恐惧。只有在我们与别人互动时,才会学习识别或定义所谓的&恐惧&。
  当我们在讨论恐惧时,我们谈论的是一个广义的概念,而不是大脑特定部位释放的情感。正如Barrett所说的那样,我们通过身体系统的相互作用来构建情感。那么,我们该如何期望程序员能够准确地在机器人中模拟人类情感呢?
  优秀的士兵
  对于通过编程赋予机器人情感这一问题,社会一直有所争议。这些问题在军事机器人的开发上更加明显。
  今年,在由陆军发起的一个&Mad Scientist Initiative&会议上,陆军训练司令部的副指挥官Kevin Mangum中将指出,像Octavia这样的机器人将会是完全自动化的。Mangum说:&当我们看待这个日益复杂的世界时,毫无疑问,机器人、自动化系统和人工智能将会扮演重要的角色。&《2017年陆军机器人和自动化系统战略》预测:到2040年,自动化系统将全部整合,逐步取代现今的炸弹处理机器人和其他由人类远程操作的机器。
  当这些机器人可以按照自己的想法进行行动时,它们是否应该像Octavia一样被设计为表现人类情感呢?还是真正拥有人类情感?如果我们把它们送到战斗中,它们是否应该具备思考和感知的能力?
  从一方面来说,当然不是。如果我们所设计的机器人是用来应对危险情况的,那么让它们感知到恐怖、创伤和痛苦是很不人道的。
  但是从另一方面来说,如果情感和智能会相互影响,那么我们能够确定一个没有情感的机器人会成为一个优秀士兵吗?如果情感的缺乏导致了愚蠢的决定、不必要的风险或过分残忍的报复呢?
  如果情感和智能具有不可分割的联系,那么一个自动化机器人应该拥有什么程度的情感,也就是程序员不能控制的程度。
  情感附属
  还有一个问题也很重要,那就是这些机器人可能会影响它们的人类队友。
  截至2010年,美国陆军已经部署了约3000个小型战术机器人,主要用来应对战争中越来越多的简易爆炸装置。这些机器人代替人类士兵行驶在暴露的道路上,潜入黑暗的洞穴中,通过狭窄的门缝检测和失效不可预测的简易爆炸装置。
  该机器人战队主要由iRobot的PackBot和QinetiQ North America的Talon组成。它们看起来就像瓦力一样,四四方方的金属身躯平衡在橡胶面上,使它们能够穿越岩石地形、攀登楼梯和进入阴暗的走廊。装配了摄像机的手臂可以对周围环境进行探查,并可以用爪子修补爆炸装置。
  它们是非常有用的工具,但并不是完全自动化的。它们需要士兵远程操作带有操纵杆的装置。虽然都是AI产品,但是PackBot和iRobot其他知名产品比起来并没有那么先进。
  而且,虽然这些机器人还不具有情感表达能力,但是人类士兵也已经和它们产生了联系。Julie Carpenter在《军事化空间中的文化和人机交互》中表示,这些关系是复杂的,既存在有益的一面,也存在痛苦的一面。
  当Carpenter让一名军人描述他对一个被毁坏的机器人的感受时,他回答道:&这就像朋友受伤了,或者看到一个队友被踢出团队一样。虽然知道这只是机器人,但是仍然会对它感觉到一些什么。&
  另一名军人将他的机器人比作宠物狗:&你照顾这个机器人就像照顾你的团队成员一样。你会给它洗澡,会确保电池一直充电。如果没有在使用它,你会小心翼翼的收好,因为你知道如果机器人发生了什么事情,下一个就轮到你了,没有人喜欢这样的事情。&
  这些军人都强调机器人只是工具,并不是拥有情感的生物。但是他们仍然会给它们起名字,并在晚上的时候小心翼翼的收好。他们开玩笑的说着这种冲动,但是这些笑话中就有那么一点令人不安的成分。Carpenter采访的这些军人似乎觉得卡在了两种感觉之间:他们明白关心一个没有情感的机器人是很荒谬的,但是他们仍然产生了一定的情感联系。
  当Carpenter发表了自己的采访后,她收到了更多与机器人产生真正情感联系的军人来信。一名曾经负责处理爆炸物的技术员写道:
  &作为一名拥有8年服务年龄、经历了三次部署的EOD技术员,我发现你的研究非常有趣。我完全同意你采访中的技术员的说法,机器人只是工具,因此我会将它们送到任何情况中,无论是否存在危险。&
  &但是2006年,在伊拉克的一次任务期间,我失去了一个被我命名为&Stacy 4&的机器人。她是一个很出色的机器人,从来没有带来任何问题,总是表现很出色。Stacy 4被完全损毁了,我只能恢复出非常小的底盘。伴随着Stacy 4被损毁的是我因此产生的愤怒感,我甚至因为失去她而大哭了一场,就好像失去了家庭成员一样。那天晚上我打电话给妻子告诉了她这件事。我知道这听起来很愚蠢,但是我非常讨厌这样想。我知道我们所使用的机器人只是机器而已,即使知道结果,我仍然会再次做出相同的决定。我珍视人类的生命。我珍视与真人的关系。但是我可以告诉你,我的确很想念Stacy 4,她是一个很出色的机器人。&
  士兵们对没有情感的机器人也产生了一定的情感联系,想像一下,如果部署的机器人是像Octavia这样的,她的人类队友会有什么样的说法?
  在关于是否给予机器人感知的伦理对话中,我们倾向于关注这种技术创新对机器人本身的影响。像《银翼杀手》和《西部世界》这样的电影和电视节目,一直在渲染人类会受到情感机器人的伤害。但是我们也需要反向思考一下,将与之拥有情感联系的机器人送入危险情况,会对这些人产生什么样的创伤。
  更为复杂的是,如果像Octavia这样的机器人最终能够感知到人类的情感,那么这些情感仅仅只是认知架构的结果吗?如果和我们的情感一样,那么它们会不会在与队友的交互中发生演变?
  比如,如果她的人类队友将她送入火场,或者独自行驶在路上扫描爆炸装置,她的情感会和一个被庇护的机器人有很大的不同。无论她最初设定的情感表达是什么,如果她一直处于这种不人道的情境中,她的情感可能并不会像人类一样。
责编:张阳
环球时报系产品
扫描关注环球网官方微信
扫描关注 这里是美国微信公众号
扫描关注更多环球微信公众号UBIIX公司AI智能回答机器人靠谱?【西兰西兰花吧】_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0可签7级以上的吧50个
本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:0贴子:
UBIIX公司AI智能回答机器人靠谱?
贴吧热议榜
使用签名档&&
保存至快速回贴96被浏览22,858分享邀请回答31 条评论分享收藏感谢收起1311 条评论分享收藏感谢收起你知道这个女声是人工智能机器人吗_快来见识一下_腾讯视频
三倍流畅播放
1080P蓝光画质
新剧提前看
1080P蓝光画质
纯净式无框播放器
三倍流畅播放
扫一扫 手机继续看
下载需先安装客户端
{clientText}
客户端特权:
3倍流畅播放
当前播放至 {time}
扫一扫 手机继续看
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要
副标题要不要

我要回帖

更多关于 北京智能机器人公司 的文章

 

随机推荐