文本情感分类(二):深度学习模型
By 苏剑林 | 2015-08-04 | 604181位读者 |在《文本情感分类(一):传统模型》一文中,笔者简单介绍了进行文本情感分类的传统思路。传统的思路简单易懂,而且稳定性也比较强,然而存在着两个难以克服的局限性:一、精度问题,传统思路差强人意,当然一般的应用已经足够了,但是要进一步提高精度,却缺乏比较好的方法;二、背景知识问题,传统思路需要事先提取好情感词典,而这一步骤,往往需要人工操作才能保证准确率,换句话说,做这个事情的人,不仅仅要是数据挖掘专家,还需要语言学家,这个背景知识依赖性问题会阻碍着自然语言处理的进步。
庆幸的是,深度学习解决了这个问题(至少很大程度上解决了),它允许我们在几乎“零背景”的前提下,为某个领域的实际问题建立模型。本文延续上一篇文章所谈及的文本情感分类为例,简单讲解深度学习模型。其中上一篇文章已经详细讨论过的部分,本文不再详细展开。
深度学习与自然语言处理 #
近年来,深度学习算法被应用到了自然语言处理领域,获得了比传统模型更优秀的成果。如Bengio等学者基于深度学习的思想构建了神经概率语言模型,并进一步利用各种深层神经网络在大规模英文语料上进行语言模型的训练,得到了较好的语义表征,完成了句法分析和情感分类等常见的自然语言处理任务,为大数据时代的自然语言处理提供了新的思路。
经过笔者的测试,基于深度神经网络的情感分析模型,其准确率往往有95%以上,深度学习算法的魅力和威力可见一斑!
关于深度学习进一步的资料,请参考以下文献:
[1] Yoshua Bengio, Réjean Ducharme Pascal Vincent, Christian Jauvin. A Neural Probabilistic Language Model, 2003
[2] 一种新的语言模型:http://blog.sciencenet.cn/blog-795431-647334.html[3] Deep Learning(深度学习)学习笔记整理:http://blog.csdn.net/zouxy09/article/details/8775360
[4] Deep Learning:http://deeplearning.net
[5] 漫话中文自动分词和语义识别:http://www.matrix67.com/blog/archives/4212
[6] Deep Learning 在中文分词和词性标注任务中的应用:http://blog.csdn.net/itplus/article/details/13616045
语言的表达 #
在文章《闲聊:神经网络与深度学习》中,笔者已经提到过,建模环节中最重要的一步是特征提取,在自然语言处理中也不例外。在自然语言处理中,最核心的一个问题是,如何把一个句子用数字的形式有效地表达出来?如果能够完成这一步,句子的分类就不成问题了。显然,一个最初等的思路是:给每个词语赋予唯一的编号1,2,3,4...,然后把句子看成是编号的集合,比如假设1,2,3,4分别代表“我”、“你”、“爱”、“恨”,那么“我爱你”就是[1, 3, 2],“我恨你”就是[1, 4, 2]。这种思路看起来有效,实际上非常有问题,比如一个稳定的模型会认为3跟4是很接近的,因此[1, 3, 2]和[1, 4, 2]应当给出接近的分类结果,但是按照我们的编号,3跟4所代表的词语意思完全相反,分类结果不可能相同。因此,这种编码方式不可能给出好的结果。
读者也许会想到,我将意思相近的词语的编号凑在一堆(给予相近的编号)不就行了?嗯,确实如果,如果有办法把相近的词语编号放在一起,那么确实会大大提高模型的准确率。可是问题来了,如果给出每个词语唯一的编号,并且将相近的词语编号设为相近,实际上是假设了语义的单一性,也就是说,语义仅仅是一维的。然而事实并非如此,语义应该是多维的。
比如我们谈到“家园”,有的人会想到近义词“家庭”,从“家庭”又会想到“亲人”,这些都是有相近意思的词语;另外,从“家园”,有的人会想到“地球”,从“地球”又会想到“火星”。换句话说,“亲人”、“火星”都可以看作是“家园”的二级近似,但是“亲人”跟“火星”本身就没有什么明显的联系了。此外,从语义上来讲,“大学”、“舒适”也可以看做是“家园”的二级近似,显然,如果仅通过一个唯一的编号,是很难把这些词语放到适合的位置的。
Word2Vec:高维来了 #
从上面的讨论可以知道,很多词语的意思是各个方向发散开的,而不是单纯的一个方向,因此唯一的编号不是特别理想。那么,多个编号如何?换句话说,将词语对应一个多维向量?不错,这正是非常正确的思路。
为什么多维向量可行?首先,多维向量解决了词语的多方向发散问题,仅仅是二维向量就可以360度全方位旋转了,何况是更高维呢(实际应用中一般是几百维)。其次,还有一个比较实际的问题,就是多维向量允许我们用变化较小的数字来表征词语。怎么说?我们知道,就中文而言,词语的数量就多达数十万,如果给每个词语唯一的编号,那么编号就是从1到几十万变化,变化幅度如此之大,模型的稳定性是很难保证的。如果是高维向量,比如说20维,那么仅需要0和1就可以表达$2^{20} = 1048576$(100万)个词语了。变化较小则能够保证模型的稳定性。
扯了这么多,还没有真正谈到点子上。现在思路是有了,问题是,如何把这些词语放到正确的高维向量中?而且重点是,要在没有语言背景的情况下做到这件事情?(换句话说,如果我想处理英语语言任务,并不需要先学好英语,而是只需要大量收集英语文章,这该多么方便呀!)在这里我们不可能也不必要进行更多的原理上的展开,而是要介绍:而基于这个思路,有一个Google开源的著名的工具——Word2Vec。
简单来说,Word2Vec就是完成了上面所说的我们想要做的事情——用高维向量(词向量,Word Embedding)表示词语,并把相近意思的词语放在相近的位置,而且用的是实数向量(不局限于整数)。我们只需要有大量的某语言的语料,就可以用它来训练模型,获得词向量。词向量好处前面已经提到过一些,或者说,它就是问了解决前面所提到的问题而产生的。另外的一些好处是:词向量可以方便做聚类,用欧氏距离或余弦相似度都可以找出两个具有相近意思的词语。这就相当于解决了“一义多词”的问题(遗憾的是,似乎没什么好思路可以解决一词多义的问题。)
关于Word2Vec的数学原理,读者可以参考这系列文章。而Word2Vec的实现,Google官方提供了C语言的源代码,读者可以自行编译。而Python的Gensim库中也提供现成的Word2Vec作为子库(事实上,这个版本貌似比官方的版本更加强大)。
表达句子:句向量 #
接下来要解决的问题是:我们已经分好词,并且已经将词语转换为高维向量,那么句子就对应着词向量的集合,也就是矩阵,类似于图像处理,图像数字化后也对应一个像素矩阵;可是模型的输入一般只接受一维的特征,那怎么办呢?一个比较简单的想法是将矩阵展平,也就是将词向量一个接一个,组成一个更长的向量。这个思路是可以,但是这样就会使得我们的输入维度高达几千维甚至几万维,事实上是难以实现的。(如果说几万维对于今天的计算机来说不是问题的话,那么对于1000x1000的图像,就是高达100万维了!)
事实上,对于图像处理来说,已经有一套成熟的方法了,叫做卷积神经网络(CNNs),它是神经网络的一种,专门用来处理矩阵输入的任务,能够将矩阵形式的输入编码为较低维度的一维向量,而保留大多数有用信息。卷积神经网络那一套也可以直接搬到自然语言处理中,尤其是文本情感分类中,效果也不错,相关的文章有《Deep Convolutional Neural Networks for Sentiment Analysis of Short Texts》。但是句子的原理不同于图像,直接将图像那一套用于语言,虽然略有小成,但总让人感觉不伦不类。因此,这并非自然语言处理中的主流方法。
在自然语言处理中,通常用到的方法是递归神经网络或循环神经网络(都叫RNNs)。它们的作用跟卷积神经网络是一样的,将矩阵形式的输入编码为较低维度的一维向量,而保留大多数有用信息。跟卷积神经网络的区别在于,卷积神经网络更注重全局的模糊感知(好比我们看一幅照片,事实上并没有看清楚某个像素,而只是整体地把握图片内容),而RNNs则是注重邻近位置的重构,由此可见,对于语言任务,RNNs更具有说服力(语言总是由相邻的字构成词,相邻的词构成短语,相邻的短语构成句子,等等,因此,需要有效地把邻近位置的信息进行有效的整合,或者叫重构)。
说到模型的分类,可真谓无穷无尽。在RNNs这个子集之下,又有很多个变种,如普通的RNNs,以及GRU、LSTM等,读者可以参考Keras的官方文档:http://keras.io/models/,它是Python是一个深度学习库,提供了大量的深度学习模型,它的官方文档既是一个帮助教程,也是一个模型的列表——它基本实现了目前流行的深度学习模型。
搭建LSTM模型 #
吹了那么久水,是该干点实事了。现在我们基于LSTM(Long-Short Term Memory,长短期记忆人工神经网络)搭建一个文本情感分类的深度学习模型,其结构图如下:
模型结构很简单,没什么复杂的,实现也很容易,用的就是Keras,它都为我们实现好了现成的算法了。
现在我们来谈谈有意思的两步。
第一步是标注语料的收集。要注意我们的模型是监督训练的(至少也是半监督),所以需要收集一些已经分好类的句子,数量嘛,当然越多越好。而对于中文文本情感分类来说,这一步着实不容易,中文的资料往往是相当匮乏的。笔者在做模型的时候,东拼西凑,通过各种渠道(有在网上搜索下载的、有在数据堂花钱购买的)收集了两万多条中文标注语料(涉及六个领域)用来训练模型。(文末有共享)
第二步是模型阈值选取问题。事实上,训练的预测结果是一个[0, 1]区间的连续的实数,而程序默认情况下会将0.5设为阈值,也就是将大于0.5的结果判断为正,将小于0.5的结果判断为负。这样的默认值在很多情况下并不是最好的。如下图所示,我们在研究不同的阈值对真正率和真负率的影响之时,发现在(0.391, 0.394)区间内曲线曲线了陡变。
虽然从绝对值看,只是从0.99下降到了0.97,变化不大,但是其变化率是非常大的。正常来说都是平稳变化的,陡变意味着肯定出现了什么异常情况,而显然这个异常的原因我们很难发现。换句话说,这里存在一个不稳定的区域,这个区域内的预测结果事实上是不可信的,因此,保险起见,我们扔掉这个区间。只有结果大于0.394的,我们才认为是正,小于0.391的,我们才认为是负,是0.391到0.394之间的,我们待定。实验表明这个做法有助于提高模型的应用准确率。
说点总结 #
文章很长,粗略地介绍了深度学习在文本情感分类中的思路和实际应用,很多东西都是泛泛而谈。笔者并非要写关于深度学习的教程,而是只想把关键的地方指出来,至少是那些我认为是比较关键的地方。关于深度学习,有很多不错的教程,最好还是阅读英文的论文,中文的比较好的就是博客http://blog.csdn.net/itplus了,笔者就不在这方面献丑了。
下面是我的语料和代码。读者可能会好奇我为什么会把这些“私人珍藏”共享呢?其实很简单,因为我不是干这行的哈,数据挖掘对我来说只是一个爱好,一个数学与Python结合的爱好,因此在这方面,我不用担心别人比我领先哈。
语料下载:sentiment.zip
采集到的评论数据:sum.zip
搭建LSTM做文本情感分类的代码:
import pandas as pd #导入Pandas
import numpy as np #导入Numpy
import jieba #导入结巴分词
from keras.preprocessing import sequence
from keras.optimizers import SGD, RMSprop, Adagrad
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers.core import Dense, Dropout, Activation
from keras.layers.embeddings import Embedding
from keras.layers.recurrent import LSTM, GRU
from __future__ import absolute_import #导入3.x的特征函数
from __future__ import print_function
neg=pd.read_excel('neg.xls',header=None,index=None)
pos=pd.read_excel('pos.xls',header=None,index=None) #读取训练语料完毕
pos['mark']=1
neg['mark']=0 #给训练语料贴上标签
pn=pd.concat([pos,neg],ignore_index=True) #合并语料
neglen=len(neg)
poslen=len(pos) #计算语料数目
cw = lambda x: list(jieba.cut(x)) #定义分词函数
pn['words'] = pn[0].apply(cw)
comment = pd.read_excel('sum.xls') #读入评论内容
#comment = pd.read_csv('a.csv', encoding='utf-8')
comment = comment[comment['rateContent'].notnull()] #仅读取非空评论
comment['words'] = comment['rateContent'].apply(cw) #评论分词
d2v_train = pd.concat([pn['words'], comment['words']], ignore_index = True)
w = [] #将所有词语整合在一起
for i in d2v_train:
w.extend(i)
dict = pd.DataFrame(pd.Series(w).value_counts()) #统计词的出现次数
del w,d2v_train
dict['id']=list(range(1,len(dict)+1))
get_sent = lambda x: list(dict['id'][x])
pn['sent'] = pn['words'].apply(get_sent) #速度太慢
maxlen = 50
print("Pad sequences (samples x time)")
pn['sent'] = list(sequence.pad_sequences(pn['sent'], maxlen=maxlen))
x = np.array(list(pn['sent']))[::2] #训练集
y = np.array(list(pn['mark']))[::2]
xt = np.array(list(pn['sent']))[1::2] #测试集
yt = np.array(list(pn['mark']))[1::2]
xa = np.array(list(pn['sent'])) #全集
ya = np.array(list(pn['mark']))
print('Build model...')
model = Sequential()
model.add(Embedding(len(dict)+1, 256))
model.add(LSTM(128)) # try using a GRU instead, for fun
model.add(Dropout(0.5))
model.add(Dense(1))
model.add(Activation('sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.fit(x, y, batch_size=16, nb_epoch=10) #训练时间为若干个小时
classes = model.predict_classes(xt)
acc = np_utils.accuracy(classes, yt)
print('Test accuracy:', acc)
转载到请包括本文地址:https://kexue.fm/archives/3414
更详细的转载事宜请参考:《科学空间FAQ》
如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。
如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!
如果您需要引用本文,请参考:
苏剑林. (Aug. 04, 2015). 《文本情感分类(二):深度学习模型 》[Blog post]. Retrieved from https://kexue.fm/archives/3414
@online{kexuefm-3414,
title={文本情感分类(二):深度学习模型},
author={苏剑林},
year={2015},
month={Aug},
url={\url{https://kexue.fm/archives/3414}},
}
June 29th, 2016
楼主是否与其他的分类模型一起对比过,比如SVM等其他模型,效果是否比这些模型要好很多
我没做过SVM之类的模型,原因是:将句子理解为词的序列,并且用词向量表示词,那么句子就变成了一个矩阵。而目前能够比较好地接收矩阵输入的模型,我所知只有RNN和CNN(LSTM属于RNN的一种)。
确实看过一些论文是用SVM做的,它们通过某些特殊的方法构造了一维的句向量(而不是句矩阵),比如词向量加权求和,或者one hot的方式,等等。也就是说,构造特征是他们自己用其它方法来做的。而深度学习的好处是它能够自己构造特征。
也可以这样看吧,其实神经网络的最后一层相当于一个逻辑回归而已(神经网络就是多个逻辑回归的组合),前面的很多层,本质上都是在构造特征。也有人是把最后一层换成SVM的。
结论:我没做过SVM,而从前人的论文结果来看,SVM的效果并不比得上LSTM。论文的一个严重弊端是,我不知道他们做模型的数据是什么,我也没法重复他们的实验,因此,也不好直接拿本文的结果跟论文结果比较。
我有试过词袋模型+SVM分类,在自己标注的语料集(2万个文本),如果只是分正负极性的话准确率有89%,但是如果分正负,客观,三类的话,准确率只有80%左右,最近有看一篇paper是先对句子做CNN,然后对CNN的结果做RNN,但实现起来有点困难。楼主有联系方式吗,求指导啊。
July 19th, 2016
请问,我运行程序会报错ValueError: I/O operation on closed file 这个怎么解决
哪一行报错了?新版代码请直接参考http://kexue.fm/archives/3863/
July 21st, 2016
我换了数据跑后报这个错
IndexError: index 93472 is out of bounds for size 93394
Apply node that caused the error: AdvancedSubtensor1(embedding_1_W, Reshape{1}.0)
Toposort index: 55
Inputs types: [TensorType(float32, matrix), TensorType(int32, vector)]
Inputs shapes: [(93394, 256), (50,)]
Inputs strides: [(1024, 4), (4,)]
Inputs values: ['not shown', 'not shown']
September 16th, 2016
您好!谢谢您的分享,我有一个问题,您的那个阀值的选取的图像是怎么得到的?其中的数据是怎么获取的?
横坐标是阈值,纵坐标是真正率或者真负率
September 19th, 2016
苏神,最后的训练和验证是穿越了吧?
September 27th, 2016
博主,上面激活函数在哪里设定呢,Activation层没有阈值设定这个参数啊
激活层是用激活函数来激活的,是一个预先定义好的不是很复杂的非线性变换,一般没有参数。
谢谢博主,但是看您“第二步是模型阈值选取问题”中有对阈值进行自主设置?这步具体怎么操作的呢
我觉得文章中和评论区的讨论都说得很清楚了呀,是通过研究真正率和真负率曲线的陡变来得出的。
博主,我这个人又笨有轴但是确实是想弄清楚,求给个机会向您学习,我的qq联系方式是:330109135
苏老师,我也想问一下
①您这个阈值的设定在程序中哪里体现了吖?
②图像是根据真正率和真负率得出的,但是您是使用什么得到图像的啊?
1、程序没有体现,自己的探索代码;
2、自己写,没有现成函数。
好滴 谢谢苏老师
因为感觉阈值设定对分类结果的好坏肯定有很大影响,所以想认真了解下这部分
October 27th, 2016
请问在运行你的代码的时候,显示:AttributeError: 'module' object has no attribute 'getdlopenflags',请问是怎么回事呢?
你确定是在运行我的代码?上面代码哪有getdlopenflags?
因为你把默认变成了tensorflow,改成theano就好了,tensorflow在Windows上跑不好
谢谢~问题已经解决了
您好,您能帮我看看下面这个问题吗?
Using Theano backend.
Building prefix dict from the default dictionary ...
Loading model from cache c:\users\chengj~1\appdata\local\temp\jieba.cache
Loading model cost 1.539 seconds.
Prefix dict has been built succesfully.
Pad sequences (samples x time)
Build model...
Traceback (most recent call last):
File "F:/PycharmProjects/untitled2/.idea/lstm.py", line 62, in
model.add(LSTM(256, 128)) # try using a GRU instead, for fun
File "E:\Anaconda2\lib\site-packages\keras\models.py", line 308, in add
output_tensor = layer(self.outputs[0])
File "E:\Anaconda2\lib\site-packages\keras\engine\topology.py", line 487, in __call__
self.build(input_shapes[0])
File "E:\Anaconda2\lib\site-packages\keras\layers\recurrent.py", line 681, in build
name='{}_W_i'.format(self.name))
TypeError: 'int' object is not callable
我的联系方式:QQ:327918069,非常感谢你了
您好,您能帮我看看下面这个问题吗?
Using Theano backend.
Building prefix dict from the default dictionary ...
Loading model from cache c:\users\chengj~1\appdata\local\temp\jieba.cache
Loading model cost 1.539 seconds.
Prefix dict has been built succesfully.
Pad sequences (samples x time)
Build model...
Traceback (most recent call last):
File "F:/PycharmProjects/untitled2/.idea/lstm.py", line 62, in
model.add(LSTM(256, 128)) # try using a GRU instead, for fun
File "E:\Anaconda2\lib\site-packages\keras\models.py", line 308, in add
output_tensor = layer(self.outputs[0])
File "E:\Anaconda2\lib\site-packages\keras\engine\topology.py", line 487, in __call__
self.build(input_shapes[0])
File "E:\Anaconda2\lib\site-packages\keras\layers\recurrent.py", line 681, in build
name='{}_W_i'.format(self.name))
TypeError: 'int' object is not callable
我的联系方式:QQ:327918069,非常感谢你了
你好,请问这个问题你是怎么解决的啊?
TypeError: 'int' object is not callable
这个问题还没解决
AttributeError: 'module' object has no attribute 'getdlopenflags'这个问题怎么解决的呢?我是Windows下装的TensorFlow。
windows不能用tensorflow,只能用theano
windows下面python3.5可以用TensorFlow,我就是这么用的
October 28th, 2016
我是个小白,windows上运行你的程序,出现下面这个问题
TypeError: 'int' object is not callable
请问您知道怎么回事吗?
keras已经进行了多次升级,代码变化很多,这个代码已经不能用了,你可以参考:http://kexue.fm/archives/3863/
建议:好好读一下官方帮助文档再来折腾代码,不懂英文也有中文的帮助文档。不要只想着套代码就完事。
November 15th, 2016
327918069,我的QQ,给你连接
November 17th, 2016
多谢博主大神的分享,但是在运行过程中报了ResourceExhaustedError的错误,请问这是内存不够造成的吗?谢谢
详细点?可能是内存不足,但我记得当时我是在自己的笔记本(4G内存)运行的而已。另外不知道会不会是代码问题,这个帖子的代码已过时,新版可以参考http://kexue.fm/archives/3863/
我这边有8G内存,可能是显存不够(使用650M左右),有一半几率会出现这个问题。我先拜读一下新的文章
你好,我也遇到一些问题,能不能共同讨论一下