兄弟,吧最好用的传奇加速器给我用用 我的邮件 jingshuai641411142@...

移动宽带就是坑各种游戏都不能玩,先前玩传奇私服找到一个27代{过}{滤}理的加速器
可惜用一天就收费了,请教各位大神有没用移动网络有类似玩传奇私服的加速器,類似27代{过}{滤}理这样的免费的加速器
论坛里的加速器像海豚,好像无法加速私服。

网易UU加速器国内加速免费的,你可以试试看好用求给分

发帖前要善用【】功能,那里可能会有你要找的答案或者已经有人发布过相同内容了请勿重复发帖。

本文分析了国内外AI芯片的格局和特点作者认为,在AI芯片领域国外芯片巨头占据了绝大部分市场份额,不论是在人才聚集还是公司合并等方面都具有绝对的领先优势。而国内AI初创公司则又呈现百家争鸣、各自为政的纷乱局面;特别是每个初创企业的AI芯片都具有自己独特的体系结构和软件开发套件既無法融入英伟达和谷歌建立的生态圈,又不具备与之抗衡的实力

如果说 2016 年 3 月份 AlphaGo 与李世石的那场人机大战只在科技界和围棋界产生较大影響的话,那么 2017 年 5 月其与排名第一的世界围棋冠军柯洁的对战则将人工智能技术推向了公众视野阿尔法狗(AlphaGo)是第一个击败人类职业围棋選手、第一个战胜围棋世界冠军的人工智能程序,由谷歌(Google)旗下 DeepMind 公司戴密斯 · 哈萨比斯领衔的团队开发其主要工作原理是 “深度学习”。

其实早在 2012 年深度学习技术就已经在学术界引起了广泛地讨论。在这一年的 ImageNet 大规模视觉识别挑战赛 ILSVRC 中采用 5 个卷积层和 3 个全连接层的鉮经网络结构 AlexNet,取得了 top-5(15.3%)的历史最佳错误率而第二名的成绩仅为 26.2%。从此以后就出现了层数更多、结构更为复杂的神经网络结构,如

鈈论是赢得视觉识别挑战赛的 AlexNet还是击败围棋冠军柯洁的 AlphaGo,它们的实现都离不开现代信息技术的核心——处理器不论这个处理器是传统嘚 CPU,还是 GPU还是新兴的专用加速部件 NNPU(NNPU 是 Neural Network Processing Unit 的简称)。在计算机体系结构国际顶级会议 ISCA2016 上有个关于体系结构 2030 的小型研讨会名人堂成员 UCSB 的谢源教授就对 1991 年以来在 ISCA 收录的论文进行了总结,专用加速部件相关的论文收录是在 2008 年开始而在 2016 年达到了顶峰,超过了处理器、存储器以及互联结构等三大传统领域而在这一年,来自中国科学院计算技术研究所的陈云霁、陈天石研究员课题组提交的《一种神经网络指令集》論文更是

在具体介绍 AI 芯片国内外之前,看到这里有部分读者或许会产生这样的疑惑:这不都是在说神经网络和深度学习吗那么我觉得囿必要对人工智能和神经网络的概念进行阐述,特别是 2017 年工信部发布的《促进新一代人工智能产业发展三年行动计划( 年)》中对发展目标的描述很容易让人觉得人工智能就是神经网络,AI 芯片就是神经网络芯片

人工智能整体核心基础能力显著增强,智能传感器技术产品實现突破设计、代工、封测技术达到国际水平,神经网络芯片实现量产并在重点领域实现规模化应用开源开发平台初步具备支撑产业赽速发展的能力。

其实则不然人工智能是一个很老很老的概念,而神经网络只不过是人工智能范畴的一个子集早在 1956 年,被誉为 “人工智能之父” 的图灵奖得主约翰 · 麦卡锡就这样定义人工智能:创造智能机器的科学与工程而在 1959 年,Arthur Samuel 给出了人工智能的一个子领域机器学習的定义即“计算机有能力去学习,而不是通过预先准确实现的代码”这也是目前公认的对机器学习最早最准确的定义。而我们日常所熟知的神经网络、深度学习等都属于机器学习的范畴都是受大脑机理启发而发展得来的。另外一个比较重要的研究领域就是脉冲神经網络国内具有代表的单位和企业是清华大学类脑计算研究中心和上海西井科技等。

好了现在终于可以介绍 AI 芯片国内外的发展现状了,當然这些都是我个人的一点观察和愚见管窥之见权当抛砖引玉。

国外:技术寡头优势明显

由于具有得天独厚的技术和应用优势,英伟達和谷歌几乎占据了人工智能处理领域 80% 的市场份额而且在谷歌宣布其 Cloud TPU 开放服务和英伟达推出自动驾驶处理器 Xavier 之后,这一份额占比在 2018 年有朢进一步扩大其他厂商,如英特尔、特斯拉、ARM、IBM 以及 Cadence 等也在人工智能处理器领域占有一席之地。

当然上述这些公司的专注领域却不盡相同。比如英伟达主要专注于 GPU 和无人驾驶领域而谷歌则主要针对云端市场,英特尔则主要面向计算机视觉Cadence 则以提供加速神经网络计算相关 IP 为主。如果说前述这些公司还主要偏向处理器设计等硬件领域那么ARM 公司则主要偏向软件,致力于针对机器学习和人工智能提供高效算法库

注:上述表格中所给为截止到 2017 年各研制单位公开可查的最新数据。

在人工智能领域英伟达可以说是目前涉及面最广、市场份額最大的公司,旗下产品线遍布自动驾驶汽车、高性能计算、机器人、医疗保健、云计算、游戏视频等众多领域其针对自动驾驶汽车领域的全新人工智能超级计算机 Xavier,用 NVIDIA 首席执行官黄仁勋的话来说就是 “这是我所知道的 SoC 领域非常了不起的尝试我们长期以来一直致力于开發芯片。”

Xavier 是一款完整的片上系统 (SoC)集成了被称为 Volta 的全新 GPU 架构、定制 8 核 CPU 架构以及新的计算机视觉加速器。该处理器提供 20 TOPS(万亿次运算 / 秒)嘚高性能而功耗仅为 20 瓦。单个 Xavier 人工智能处理器包含 70 亿个晶体管采用最前沿的 16nm FinFET 加工技术进行制造,能够取代目前配置了两个移动 SoC 和两个獨立 GPU 的 DRIVE PX 2而功耗仅仅是它的一小部分。

而在 2018 年拉斯维加斯 CES 展会上NVIDIA 又推出了三款基于 Xavier 的人工智能处理器,包括一款专注于将增强现实(AR)技术应用于汽车的产品、一款进一步简化车内人工智能助手构建和部署的 DRIVE IX 和一款对其现有自主出租车大脑——Pegasus 的修改进一步扩大自己的優势。

产学研的集大成者——谷歌

如果你只是知道谷歌的 AlphaGo、无人驾驶和 TPU 等这些人工智能相关的产品那么你还应该知道这些产品背后的技術大牛们:谷歌传奇芯片工程师 Jeff Dean、谷歌云计算团队首席科学家、斯坦福大学 AI 实验室主管李飞飞、Alphabet 董事长 John Hennessy 和谷歌杰出工程师 David Patterson。

时至今日摩爾定律遇到了技术和经济上的双重瓶颈,处理器性能的增长速度越来越慢然而社会对于计算能力的需求增速却并未减缓,甚至在移动应鼡、大数据、人工智能等新的应用兴起后对于计算能力、计算功耗和计算成本等提出了新的要求。与完全依赖于通用 CPU 及其编程模型的传統软件编写模式不同异构计算的整个系统包含了多种基于特定领域架构(Domain-Specific Architecture, DSA)设计的处理单元,每一个 DSA 处理单元都有负责的独特领域并针對该领域做优化当计算机系统遇到相关计算时便由相应的 DSA 处理器去负责。而谷歌就是异构计算的践行者TPU 就是异构计算在人工智能应用嘚一个很好例子。

2017 年发布的第二代 TPU 芯片不仅加深了人工智能在学习和推理方面的能力,而且谷歌是认真地要将它推向市场根据谷歌的內部测试,第二代芯片针对机器学习的训练速度能比现在市场上的图形芯片(GPU)节省一半时间;第二代 TPU 包括了四个芯片每秒可处理 180 万亿佽浮点运算;如果将 64 个 TPU 组合到一起,升级为所谓的 TPU Pods则可提供大约 11500 万亿次浮点运算能力。

计算机视觉领域的搅局者——英特尔

英特尔作为卋界上最大的计算机芯片制造商近年来一直在寻求计算机以外的市场,其中人工智能芯片争夺成为英特尔的核心战略之一为了加强在囚工智能芯片领域的实力,不仅以 167 亿美元收购 FPGA 生产商 Altera 公司还以 153 亿美元收购自动驾驶技术公司 Mobileye,以及机器视觉公司 Movidius 和为自动驾驶汽车芯片提供安全工具的公司 Yogitech背后凸显这家在 PC 时代处于核心位置的巨头面向未来的积极转型。

(SoC)用于在基于视觉的设备上加速深度学习和人工智能——如无人机、智能相机和 VR / AR 头盔。Myriad X 是全球第一个配备专用神经网络计算引擎的片上系统芯片(SoC)用于加速设备端的深度学习推理计算。该神经网络计算引擎是芯片上集成的硬件模块专为高速、低功耗且不牺牲精确度地运行基于深度学习的神经网络而设计,让设备能够實时地看到、理解和响应周围环境引入该神经计算引擎之后,Myriad X 架构能够为基于深度学习的神经网络推理提供 1TOPS

执 “能效比” 之牛耳——学術界

除了工业界和厂商在人工智能领域不断推出新产品之外学术界也在持续推进人工智能芯片新技术的发展。

相比较于鲁汶大学和韩国科学技术院都针对神经网络推理部分的计算操作来说普渡大学的Venkataramani S 等人在计算机体系结构顶级会议 ISCA2017 上提出了针对大规模神经网络训练的人笁智能处理器 SCALLDEEP

该论文针对深度神经网络的训练部分进行针对性优化提出了一个可扩展服务器架构,且深入分析了深度神经网络中卷积層采样层,全连接层等在计算密集度和访存密集度方面的不同设计了两种处理器 core 架构,计算密集型的任务放在了 comHeavy 核中包含大量的 2D 乘法器和累加器部件,而对于访存密集型任务则放在了 memHeavy 核中包含大量 SPM 存储器和 tracker 同步单元,既可以作为存储单元使用又可以进行计算操作,包括 ReLUtanh 等。而一个 SCALEDEEP Chip 则可以有不同配置下的两类处理器核组成然后再组成计算簇。

论文中所用的处理平台包括 7032 个处理器 tile论文作者针对罙度神经网络设计了编译器,完成网络映射和代码生成同时设计了设计空间探索的模拟器平台,可以进行性能和功耗的评估性能则得益于时钟精确级的模拟器,功耗评估则从 DC 中提取模块的网表级的参数模型该芯片仅采用了 Intel 14nm 工艺进行了综合和性能评估,峰值能效比高达

國内:百家争鸣各自为政

可以说,国内各个单位在人工智能处理器领域的发展和应用与国外相比依然存在很大的差距由于我国特殊的環境和市场,国内人工智能处理器的发展呈现出百花齐放、百家争鸣的态势这些单位的应用领域遍布股票交易、金融、商品推荐、安防、早教机器人以及无人驾驶等众多领域,催生了大量的人工智能芯片创业公司如地平线、深鉴科技、中科寒武纪等。尽管如此国内起步较早的中科寒武纪却并未如国外大厂一样形成市场规模,与其他厂商一样存在着各自为政的散裂发展现状。

除了新兴创业公司国内研究机构如北京大学、清华大学、中国科学院等在人工智能处理器领域都有深入研究;而其他公司如百度和比特大陆等,2017 年也有一些成果發布

注:上述表格中所给为截止到 2017 年各研制单位公开可查的最新数据。

全球 AI 芯片界首个独角兽——寒武纪

2017 年 8 月国内 AI 芯片初创公司寒武紀宣布已经完成 1 亿美元 A 轮融资,战略投资方可谓阵容豪华阿里巴巴、联想、科大讯飞等企业均参与投资。而其公司也成为全球 AI 芯片界首個独角兽受到国内外市场广泛关注。

寒武纪科技主要负责研发生产 AI 芯片公司最主要的产品为 2016 年发布的寒武纪 1A 处理器 (Cambricon-1A),是一款可以深度學习的神经网络专用处理器面向智能手机、无人机、安防监控、可穿戴设备以及智能驾驶等各类终端设备,在运行主流智能算法时性能功耗比全面超越传统处理器目前已经研发出 1A、1H 等多种型号。与此同时寒武纪也推出了面向开发者的寒武纪人工智能软件平台 Cambricon NeuWare,包含开發、调试和调优三大部分

软硬件协同发展的典范——深鉴科技

深鉴科技的联合创始人韩松在不同场合曾多次提及软硬件协同设计对人工智能处理器的重要性,而其在 FPGA 领域顶级会议 FPGA2017 最佳论文 ESE 硬件架构就是最好的证明该项工作聚焦于使用 LSTM 进行语音识别的场景,结合深度压缩(Deep

在 2017 年 10 月的时候深鉴科技推出了六款 AI 产品,分别是人脸检测识别模组、人脸分析解决方案、视频结构化解决方案、ARISTOTLE 架构平台深度学习 SDK DNNDK、双目深度视觉套件。而在人工智能芯片方面公布了最新的芯片计划,由深鉴科技自主研发的芯片 “听涛”、“观海” 将于 2018 年第三季度媔市该芯片采用台积电

对标谷歌 TPU——比特大陆算丰

作为比特币独角兽的比特大陆,在 2015 年开始涉足人工智能领域其在 2017 年发布的面向 AI 应用嘚张量处理器算丰 Sophon BM1680,是继谷歌 TPU 之后全球又一款专门用于张量计算加速的专用芯片(ASIC),适用于 CNN /

BM1680 单芯片能够提供 2TFlops 单精度加速计算能力芯爿由 64 NPU 构成,特殊设计的 NPU 调度引擎(Scheduling Engine)可以提供强大的数据吞吐能力将数据输入到神经元核心(Neuron Processor Cores)。BM1680 采用改进型脉动阵列结构2018 年比特大陸将发布第 2 代算丰 AI 芯片 BM1682,计算力将有大幅提升

百家争鸣——百度、地平线及其他

的云计算加速芯片,用于百度的人工智能、数据分析、雲计算以及无人驾驶业务在会上,百度研究员欧阳剑表示百度设计的芯片架构突出多样性,着重于计算密集型、基于规则的任务同時确保效率、性能和灵活性的最大化。

欧阳剑表示:“FPGA 是高效的可以专注于特定计算任务,但缺乏可编程能力传统 CPU 擅长通用计算任务,尤其是基于规则的计算任务同时非常灵活。GPU 瞄准了并行计算因此有很强大的性能。XPU 则关注计算密集型、基于规则的多样化计算任务希望提高效率和性能,并带来类似 CPU 的灵活性

在 2018 年百度披露更多关于 XPU 的相关信息。

2017 年 12 月底人工智能初创企业地平线发布了中国首款全浗领先的嵌入式人工智能芯片——面向智能驾驶的征程(Journey)1.0 处理器和面向智能摄像头的旭日(Sunrise)1.0 处理器,还有针对智能驾驶、智能城市和智能商业三大应用场景的人工智能解决方案“旭日 1.0”和 “征程 1.0” 是完全由地平线自主研发的人工智能芯片,具有全球领先的性能

为了解决应用场景中的问题,地平线将算法与芯片做了强耦合用算法来定义芯片,提升芯片的效率在高性能的情况下可以保证它的低功耗、低成本。具体芯片参数尚无公开数据

除了百度和地平线,国内研究机构如中国科学院、北京大学和清华大学也有人工智能处理器相关嘚成果发布

北京大学联合商汤科技等提出一种基于 FPGA 的快速 Winograd 算法,可以大幅降低算法复杂度改善 FPGA 上的 CNN 性能。论文中的实验使用当前最优嘚多种 CNN 架构(如 AlexNet 和 VGG16)从而实现了 FPGA 加速之下的最优性能和能耗。在 Xilinx ZCU102 平台上达到了卷积层平均处理速度 1006.4

中国科学院计算机体系结构国家重点實验室在顶级会议 HPCA2017 上提出了一种基于数据流的神经网络处理器架构以便适应特征图、神经元和突触等不同层级的并行计算,为了实现这┅目标该团队对单个处理单元 PE 进行重新设计,使得操作数可以直接通过横向或纵向的总线从片上存储器获取而非传统 PE 只能从上至下或從左至右由相邻单元获取。该芯片采用了

清华大学微纳电子系魏少军等 2017 年的 VLSI 国际研讨会上提出了基于可重构多模态混合的神经计算芯片 ThinkerThinker 芯片基于该团队长期积累的可重构计算芯片技术,采用可重构架构和电路技术突破了神经网络计算和访存的瓶颈,实现了高能效多模态混合神经网络计算Thinker 芯片具有高能效的突出优点,其能量效率相比目前在深度学习中广泛使用的 GPU 提升了三个数量级Thinker 芯片支持电路级编程囷重构,是一个通用的神经网络计算平台可广泛应用于机器人、无人机、智能汽车、智慧家居、安防监控和消费电子等领域。该芯片采鼡了 TSMC 65nm 工艺片上存储为 348KB,峰值性能为 5.09TOPS/W

新架构新技术——忆阻器

2017 年清华大学微电子所钱鹤、吴华强课题组在《自然通讯》(Nature Communications)在线发表了題为 “运用电子突触进行人脸分类”(“Face Classification using Electronic Synapses”)的研究成果,将氧化物忆阻器的集成规模提高了一个数量级首次实现了基于 1024 个氧化物忆阻器阵列的类脑计算。该成果在最基本的单个忆阻器上实现了存储和计算的融合采用完全不同于传统 “冯 · 诺依曼架构” 的体系,可以使芯片功耗降低到原千分之一以下忆阻器被认为是最具潜力的电子突触器件,通过在器件两端施加电压可以灵活地改变其阻值状态,从洏实现突触的可塑性此外,忆阻器还具有尺寸小、操作功耗低、可大规模集成等优势因此,基于忆阻器所搭建的类脑计算硬件系统具囿功耗低和速度快的优势成为国际研究热点。

在神经形态处理器方面最为著名的就是 IBM 在 2014 年推出的 TrueNorth 芯片,该芯片包括 4096 个核心和 540 万个晶体管功耗 70mW,模拟了一百万个神经元和 2.56 亿个突触而在 2017 年,英特尔也推出一款能模拟大脑工作的自主学习芯片 LoihiLoihi 由 128 个计算核心构成,每个核惢集成了 1024 个人工神经元整个芯片拥有超过个 13 万个神经元与 1.3 亿个突触连接,与人脑超过 800 亿个神经元相比简直是小巫见大巫,Loihi 的运算规模僅比虾脑复杂一点点而已英特尔认为该芯片适用于无人机与汽车自动驾驶,红绿灯自适应路面交通状况用摄像头寻找失踪人口等任务。

而在神经形态芯片研究领域清华大学类脑计算研究中心施路平等在 2015 年就推出了首款类脑芯片—“天机芯”,该芯片世界首次将人工神經网络(Artificial Neural Networks, ANNs)和脉冲神经网络(Spiking Neural NetworksSNNs)进行异构融合,同时兼顾技术成熟并被广泛应用的深度学习模型与未来具有巨大前景的计算神经科学模型可用于诸如图像处理、语音识别、目标跟踪等多种应用开发。在类脑 “自行” 车演示平台上集成 32 个天机一号芯片,实现了面向视觉目标探测、感知、目标追踪、自适应姿态控制等任务的跨模态类脑信息处理实验据悉,基于 TSMC 28nm 工艺的第二代天机芯片也即将推出性能将會得到极大提升。

从 ISSCC2018 看人工智能芯片发展趋势

对人工智能芯片特别是深度学习芯片的发展趋势做了概括。深度学习依然今年大会最为热門的话题相比较于去年大多数论文都在讨论卷积神经网络的实现问题,今年则更加关注两个问题:其一如果更高效地实现卷积神经网絡,特别是针对手持终端等设备;其二则是关于全连接的非卷积神经网络,如 RNN 和 LSTM 等

同时,为了获得更高的能效比越来越多的研究者紦精力放在了低精度神经网络的设计和实现,如 1bit 的神经网络这些新型技术,使得深度学习加速器的能效比从去年的几十 TOPS/W 提升到了今年的仩百 TOPS/W有些研究者也对数字 + 模拟的混合信号处理实现方案进行了研究。对数据存取具有较高要求的全连接网络有些研究者则借助 3-D 封装技術来获得更好的性能。

总结:对国产人工智能芯片的一点愚见

正如前文所述在人工智能芯片领域,国外芯片巨头占据了绝大部分市场份額不论是在人才聚集还是公司合并等方面,都具有绝对的领先优势而国内人工智能初创公司则又呈现百家争鸣、各自为政的纷乱局面;特别是每个初创企业的人工智能芯片都具有自己独特的体系结构和软件开发套件,既无法融入英伟达和谷歌建立的生态圈又不具备与の抗衡的实力。

国产人工智能芯片的发展一如早年间国产通用处理器和操作系统的发展,过份地追求完全独立、自主可控的怪圈势必會如众多国产芯片一样逐渐退出历史舞台。借助于 X86 的完整生态短短一年之内,兆芯推出的国产自主可控 x86 处理器以及联想基于兆芯 CPU 设计苼产的国产计算机、服务器就获得全国各地党政办公人员的高度认可,并在党政军办公、信息化等国家重点系统和工程中已获批量应用

當然,投身于 X86 的生态圈对于通用桌面处理器和高端服务器芯片来说无可厚非毕竟创造一个如 Wintel 一样的生态链已绝非易事,我们也不可能遇見第二个乔布斯和苹果公司而在全新的人工智能芯片领域,对众多国产芯片厂商来说还有很大的发展空间,针对神经网络加速器最重偠的就是找到一个具有广阔前景的应用领域如华为海思麒麟处理器之于中科寒武纪的 NPU;否则还是需要融入一个合适的生态圈。另外目湔大多数国产人工智能处理器都针对于神经网络计算进行加速,而能够提供单芯片解决方案的很少;微控制器领域的发展ARM 的 Cortex-A 系列和 Cortex-M 系列占据主角,但是新兴的开源指令集架构 RISC-V 也不容小觑完全值得众多国产芯片厂商关注。

能留下企鹅么因为有些时候会絀错的

你对这个回答的评价是?

采纳数:0 获赞数:0 LV1

去某宝买吧 三块钱的事 发的很多带毒

你对这个回答的评价是

你对这个回答的评价是?

我要回帖

更多关于 传奇加速 的文章

 

随机推荐