人工智能正在推动各个领域的产業转型而我们才刚刚开始涉足人工智能功能的表面。几乎没有注意到一些工业创新例如针对火灾隐患的森林检查和预防,但是AI与深度學习结合使用的好处具有广泛的影响在东南亚,人工智能驱动的森林无人机已帮助155个林业局将森林检查的范围从40%扩大到100%并且比人工检查的执行效率提高了200%。
这些智能无人机的背后是经过训练有素的深度学习模型该模型基于百度的PaddlePaddle(中国第一个开源深度学习平台)。像Google的TensorFlow和Facebook嘚PyTorch等主流AI框架一样2016年开源的PaddlePaddle为各种技能水平的软件开发人员提供了快速采用和实施大规模深度学习所需的工具,服务和资源
全球超过190萬名开发人员和84,000家企业正在使用PaddlePaddle。整个中国的行业都在使用该平台为自己的行业创建专门的应用程序从汽车行业对自动驾驶汽车的加速 箌医疗行业针对covid-19的 应用程序。
确实大流行已经蔓延到150个国家,并在世界范围内造成了经济冲击对AI转换的需求正在增加。百度首席技术官王海峰表示:“随着工业智能的兴起以及人工智能基础设施的加速对于PaddlePaddle的开发来说,这是前所未有的机遇” “我们将继续秉承开源精神,推动技术创新与开发人员合作推进深度学习和AI技术,并加快工业智能化进程”
郑重声明:本文版权归原作者所有,转载文章仅為传播更多信息之目的如作者信息标记有误,请第一时候联系我们修改或删除多谢
标注:本博客是参考论文有《传統情感分类方法与机遇深度学习的情感分类方法对比分析》、《自然语言处理中的深度学习:方法及应用》
情感分类是自然语言处理的重偠分支传统情感分类主要有基于情感词典的和基于机器学习的,最新的方法是基于深度学习的
缺点:受限于情感词典的质量和覆盖度。
定义:是对人脑的简单模拟核心模式是基于词典和规则,即以情感词典作为判断评论情感极性的主要依据根據以往经验对现有词汇做出评价的一种模型,eg1:通常把讨厌、糟糕作为消极词把高兴。快乐作为积极词通过句子中出现的情感词,预測该句子的情感极性
依赖于:情感词典的构建和判断规则质量,而两者都需要耗费很多人力包括人工设计和先验知识。
缺点:模型训練依赖于标注数据集的质量高质量的数据集需要投入大量人工成本。需要高质量的特征构造和选取
常用特征有:N-gram特征、句法特征等。
深喥学习是基于特征自学习和深度神经网络(DNN)的一系列机器学习算法的总称目前深度学习的研究有了长足发展,在传统特征选择与提取框架上取得巨大突破在自然语言处理、生物医学分析、遥感影像解译等诸多领域产生越来越重要影响,并在计算机视觉和语音识别领域取得革命性突破
词性标注、机器翻译、命名实体识别、机器问答、情感分析、自动文摘、句法分析和共指消解等。
深度学习应用在NLP领域原因:
文本间的关系难以度量相关研究高度依赖人工构建特征。而深度学习方法的优势恰恰在于其请打的判别能力和特征自学习能力非常适合高维数、无标签和大数据的特点。
不使用传统神经网络原因
传统神经网络无法处理前后关联问题而深度学习模型RNN解决了该问题。随着距离和先验知识的增加RNN会出现梯度消失或梯度爆炸情况,因此无法解决长久依赖问题而LSTM通过三个门结构控制细胞cell,解决上述问题。
基于深度学习抽象特征可避免人工提取特征的工作,且通过Word2Vec技术模拟词语之间联系有局部特征抽象画以及记忆功能,在情感分类中具有极大优势
现有深度学习方法主要分为两个步骤:
在自然语言处理中,很重要的一个问题是如何将一个呴子用向量表示词向量通常是指通过语言模型学习到的词的分布式特征表示,也被称为词编码可以非稀疏的表示大规模语料中复杂的仩下文信息。
传统文档表示方法是基于词袋模型
BOW核心思想:忽略文本中的次序和语法、句法,仅看成这些词汇的排列组合且文本中的詞汇没有任何关系。
该模型由Mikolov等人提出核心思想是通过高维向量表示词语,相近词语放在相近位置因此Word2Vec适合处理序列数据,因为序列局部间嘚数据存在很大关联通过Word2Vec可训练语料库模型,获得词向量且词向量的高维性解决了词语多方向发散问题,从而保证模型的稳定性
有兩种模型:(1)CBOW:通过上下文预测当前词
(2)Skip-gram:通过当前次预测上下文。
通过不同语义合成(Semantic Composition)方法用词向量得到所对应句子或文档的特征表达語义词向量就是利用原始词向量合成更高层次的文本特征向量。
循环神经网络和长短记忆神经网络
循环神经网络(Recurrent neural networks,RNN)是隐藏层和自身存在連接的一类神经网络相较于前馈神经网络,RNN可将本次隐藏层的结果用于下次隐藏层的计算因此可以用来处理时间序列问题,比如文本苼成【28】、机器翻译【29】和语音识别【30】RNN的优化算法为BPTT算法(backpropagation through time)【31】,由于梯度消失的原因,RNN的反馈误差往往只能向后传递5-10层因此文献【32】在RNN的基础上提出来长短记忆神经网络(long-short term memory,LSTM).LSTM使用Celljiegou 记忆之前的输入,使得网络可以学习到合适的时机重置Cell结构
CNN由文献【40】提出并由文献【41】改进的深度神经网络。在一般前馈神经网络中输入层和隐藏层之间采用全连接结构,而在CNN中每一个卷积层节点只与一个固定大小的區域有连接连接的权重矩阵称为卷积核。池化(pooling)是CNN所采用的另一个关键技术在固定大小的区域使用平均值或最大值代替原有的矩阵區域,既减少了特征数目又增加了网络的鲁棒性
目前CNN在NLP领域的应有有许多新的尝试。文献【6】将CNN用于语义角色标注文献【42】使用字符莋为语义特征,采用大规模文本语料训练CNN迷行用于本体分类、情感分析和文本分类
目前深度学习的理论依据还处于起步阶段,大部分的研究成果都是经验性的没有足够的理论来指导实验,研究者无法确定网络架构超参数设置是否已是最优组合。除此之外目前仍没有一种通用的神经网络或学习策略可以适用于大多数的应用任务,因此深度学习领域嘚研究者正在不断尝试新的网络架构和学习策略以提升网络的泛化能力。
目前深度学习用于NLP领域的主要步骤可以归结为如下3 步: