卷积神经网络情感分析范文
时间:2024-04-12 15:48:45
导语:如何才能写好一篇卷积神经网络情感分析,这就需要搜集整理更多的资料和文献,欢迎阅读由公务员之家整理的十篇范文,供你借鉴。
篇1
1 卷积神经网络语言模型
CNN语言模型基本结构包括输入层、卷积层、池化层及后续的分类层。输入层是表示语言的矩阵,该矩阵可以是通过Google word2vec或GloVe预训练得到的词嵌入表示,也可以是从原始数据重新训练的语言的向量表示。输入层之后是通过线性滤波器对输入矩阵进行卷积操作的卷积层。在NLP问题中,输入矩阵总是带有固定顺序的结构,因为矩阵的每一行都表示离散的符号,例如单词或者词组等。因此,使用等宽的滤波器是非常合理的设置。在这种设置下,仅需要考虑滤波器的高度既可以实现不同尺寸的滤波器做卷积操作。由此可知,在处理NLP问题时,卷积神经网络的滤波器尺寸一般都是指滤波器的高度。
然后,将卷积层输出的特征映射输入池化层,通过池化函数为特征映射进行降维并且减少了待估计参数规模。一般的,CNN池化操作采用1-max池化函数。该函数能够将输入的特征映射统一生成维度相同的新映射。通过池化操作,可以将卷积层生成的特征连接成更抽象的高级特征,所得到的高级特征尺寸与输入的句子不再存在直接关系。
最后,将得到的高级特征输入softmax分类层进行分类操作。在softmax层,可以选择应用dropout策略作为正则化手段,该方法是随机地将向量中的一些值设置为0。另外还可以选择增加l2范数约束,l2范数约束是指当它超过该值时,将向量的l2范数缩放到指定阈值。在训练期间,要最小化的目标是分类的交叉熵损失,要估计的参数包括滤波器的权重向量,激活函数中的偏置项以及softmax函数的权重向量。
2 卷积神经网络语言模型应用分析
CNN语言模型已经广泛应用于诸如文本分类,关系挖掘以及个性化推荐等NLP任务,下面将对这些应用进行具体的介绍与分析。
2.1 CNN在文本分类中的应用分析
kim提出了利用CNN进行句子分类的方法。该方法涉及了较小规模的参数,并采用静态通道的CNN实现了效果很优异的句子分类方法。通过对输入向量的调整,进一步提高了性能实现了包括情感极性分析以及话题分类的任务。在其基础上为输入的词嵌入设计了两种通道,一种是静态通道,另一种是动态通道。在卷积层每一个滤波器都通过静态与动态两种通道进行计算,然后将计算结果进行拼接。在池化层采用dropout正则化策略,并对权值向量进行l2约束。最后将该算法应用于MR、SST-1与SST-2、Subj、TREC、CR以及MPQA等数据集。MR数据集为电影评论数据集,内容为一句话的电影评论,其分类包括积极情感极性与消极情感极性两类。SST-1与SST-2数据集为斯坦福情感树库是MR数据集的扩展,但该数据集已经划分好了训练集、验证集及测试集并给出了细粒度的标记,标记包括非常积极、积极、中性、消极、非常消极等情感极性。Subj数据集为主观性数据集,其分类任务是将句子分为主观句与客观句两类。TREC数据集为问题数据集,其分类任务是将所有问题分为六类,例如关于数字、人物或位置等信息的问题。CR数据集为评论数据集,包括客户对MP3、照相机等数码产品的评论,其分类任务是将其分为积极评价与消极评价两类。MPQA数据集是意见极性检测任务数据集。通过实验证明,该方法在这几个典型数据集上都能取得非常优异的效果。
2.2 CNN在关系挖掘中的应用分析
Shen等人提出了一种新的潜在语义模型,以词序列作为输入,利用卷积-池化结构为搜索查询和Web文档学习低维语义向量表示。为了在网络查询或网络文本中捕捉上下文结构,通过输入单词序列上下文时间窗口中的每个单词来获取词汇级的n-gram语法特征,将这些特征聚合成句子级特征向量。最后,应用非线性变换来提取高级语义信息以生成用于全文字符串的连续向量表示。该模型的不同之处在于,输入层与卷积层之间加入了word-n-gram层与letter-trigram层,它们能够将输入的词序列转变为letter-trigram表示向量。在卷积层通过上下文特征窗口发现相邻单词的位置特征,并变现为n-gram形式。然后通过max池化将word-n-gram特征合并为句子级的高级特征。在池化层之后增加了语义层来提取更高级的语义表示向量。
2.3 CNN在个性化推荐中的应用分析
Weston等人提出了一种能够利用标签(hashtag)有监督的学习网络帖子短文本特征表示的卷e嵌入模型(Convolutional Embedding Model)。该方法利用提出的CNN模型在55亿词的大数据文本上通过预标注的100,000标签进行训练。该方法除了标签预测任务本身能取得好的效果外,学习到的特征对于其它的文本表示任务也能起到非常有效的作用。该模型与其它的词嵌入模型类似,输入层为表示文本的矩阵,但是,在用查找表表示输入文本的同时将标签也使用查找表来表示。对于给定的文档利用10万条最频繁出现的标签通过评分函数对任何给定的主题标签进行排序。
其中,econv(w)表示CNN的输入文档,elt(t)是候选标签t的词嵌入表示。因此,通过对分数f(w,t)进行排序可以获取所有候选主题标签中排序第一的话题进行推荐。实验数据集采用了两个大规模语料集,均来自流行的社交网络文本并带有标签。第一个数据集称作people数据集,包括搜集自社交网络的2亿1000万条文本,共含有55亿单词。第二个数据集被称作pages,包括3530万条社交网络文本,共含有16亿单词,内容包括企业、名人、品牌或产品。
3 结束语
卷积神经网络应用于语言模型已经取得了非常大的发展,对于自然语言处理中的各项任务均取得了优异的结果。本文通过对几项典型工作的分析,探讨了不同卷积神经网络模型结构在不同任务中的表现。通过综合分析可以得出以下结论。首先,CNN的输入采用原始数据训练的向量表示一般效果会优于预训练的词嵌入表示;其次,在卷积层滤波器的尺寸一般采用宽度与输入矩阵宽度相等的设置;最后,为了优化结果可以采用dropout正则化处理。
篇2
关键词:人工智能;云计算;大数据
最近火热的美剧《西部世界》里传递出很多关于人工智能的信息,在围绕如何突破机器极限,形成自主意识方面,提出了富有科幻现实色彩的方法-冥想程序, 将意识形成描绘成了“走迷宫”的过程,同时在道德层面又一次将“人工智能是否能成为有别于人类的另一个物种”的问题呈现在广大观众面前。
“人工智能”(AI)这一概念最早由马文・明斯基和约翰・麦卡锡于1956年的“达特茅斯会议”上共同提出。1960年,麦卡锡在美国斯坦福大学建立了世界上第一个人工智能实验室。经过近几年互联网的飞速发展,AI对企业甚至是行业产生了巨大而又深远的影响。机器学习,尤其是深度学习技术成为人工智能发展的核心。越来越多的硬件供应商专为深度学习和人工智能定制设计芯片。如IBM的人脑模拟芯片SyNAPSE(Systems of Neuromorphic Adaptive Plastic Scalable Electronics,自适应塑料可伸缩电子神经形态系统)芯片,含有100万个可编程神经元,2.56亿个可编程突触,每消耗一焦耳的能量,可进行460亿突触运算。
云计算和大数据作为人工智能的基础, 在工业制造等众多场景中得到了广泛应用,比如很多工厂都在传送带上加装了传感器,将压力、温度、噪音和其他一些参数实时传到云端,将工厂真正连上网络,然后利用人工智能的算法对这些数据进行比对,由此提前为工厂提供预警和远程检测服务。这种将生产流程及产品通过物联网连接到云端,然后利用算法进行大数据分析的模式,将在更多的行业被广泛应用。
目前人工智能主要有10个应用子领域,分别是机器学习、计算机视觉、智能机器人、虚拟个人助理、自然语音处理、实时语言翻译、情感感知计算、手势控制、推荐引擎及协同过滤、视频内容自动识别。各方向处于不同的发展阶段,发展程度有高有低。但驱动发展的先决条件主要体现在感知能力、理解能力、学习能力、交互能力四个方面。
1 感知能力
目前人工智能的感知主要通过物联网来实现,它提供了计算机感知和控制物理世界的接口与手段,能够采集数据、记忆,分析、传送数据,进行交互、控制等。比如摄像头和相机记录了关于世界的大量图像和视频,麦克风记录了语音和声音,各种传感器将它们感受到的世界数字化。这些传感器就如同人类的五官,是智能系统的数据输入,是感知世界的方式。
2 理解能力
智能系统不同于人脑,没有数以千亿的神经元,对事物问题的理解在现阶段还很大程度上依赖于处理器的计算分析能力。近年来,基于GPU(图形处理器)的大规模并行计算异军突起,拥有远超CPU的并行计算能力。从处理器的计算方式来看,CPU计算使用基于x86指令集的串行架构,适合尽可能快的完成一个计算任务。而GPU诞生之初是为了处理3D图像中的上百万个像素图像,拥有更多的内核去处理更多的计算任务。因此GPU具备了执行大规模并行计算的能力。云计算的出现、GPU的大规模应用使得集中化数据计算处理能力变得空前强大。
3 学习能力
学习能力的培养类似人类需要教材和训练。据统计,2015年全球产生的数据总量达到了十年前的20多倍,大数据的发展为人工智能的学习和发展提供了非常好的基础。机器学习是人工智能的基础,而大数据和以往的经验就是人工智能学习的书本,以此优化计算机的处理性能。不可忽视的是近年来科技巨头为了提前布局AI生态,纷纷开源平台工具,极大地丰富了机器训练的素材和手段。如谷歌了新的机器学习平台TensorFlow,所有用户都能够利用这一强大的机器学习平台进行研究,被称为人工智能界的Android。IBM宣布通过Apache软件基金会免费为外部程序员提供System ML人工智能工具的源代码。微软则开源了分布式机器学习工具包DMTK,能够在较小的集群上以较高的效率完成大规模数据模型的训练,并于2016年7月推出了开源Project Malmo项目,用于人工智能训练。
4 交互能力