在不使用RNN进行句子的情感分析的条件下,最简单的方法就是将每个句子中划分的token的vector进行平均,然后送入线性分类层中分类即可。但这种操作值考虑了token的含义,并没有关注其语序,有较大的误差。
所以FastText计算了输入句子的n-gram,并将n-gram作为一种附加特征来获取局部词序特征信息添加至标记化列表的末尾。n-gram的基本思想是,将文本里面的内容按照字节进行大小为n的滑动窗口操作,形成了长度是n的字节片段序列。
def generate_bigrams(x): n_grams = set(zip(*[x[i:] for i in range(2)])) for n_gram in n_grams: x.append(' '.join(n_gram)) return x generate_bigrams(['This', 'film', 'is', 'terrible']) ##['This', 'film', 'is', 'terrible', 'film is', 'This film', 'is terrible']
在FastText的启示下,我们可以不用预先计算句子的n-gram,而是使用不同卷积核的方式来得到不同滑动窗口的效果,例如下图,embedding_dim=5,filter_size=(2,5),这样可以起到n=2的效果,再经过一次池化层就可以将一个句子变成一个值来表示。然后可以使用不同的filter_size,将结果concat在一起,再经过一层线性分类层,也可以达到分类的效果。