提示1:原文链接
提示2:代码链接
本篇博客主要是对《BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis》进行了泛读,并对其进行了简单地记录,以帮助大家快速了解此篇论文的要点。
- 论文名:《BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis》
- 作者:Hu Xu, Bing Liu, Lei Shu, Philip S. Yu
- 领域:ABSA
- 关键词:BERT、Post-Training、Aspect-based Sentiment Analysis
- 发表年份:2019
- 会议/期刊名:NAACL
目前的在线问答系统不能很好的回答用户问题
1、采用众包用户答案的方式,但是存在延迟不适合作为交互系统,并且仍然有很多没有答案;
2、已有的采用完整评论给用户的方法不可取,因为用户阅读它非常的耗时;
创新点:
受机器阅读理解 (MRC) 最近在正式文档上取得成功的启发,本文探讨了将客户评论转化为可用于回答用户问题的大量知识来源的潜力。我们称这个问题为复习阅读理解 (RRC)。
方法:
post-training
采用BERT进行的微调;
本文基于基于方面的情感分析的流行基准构建了一个名为 ReviewRC 的 RRC 数据集,如下图所示:
对比模型如下:
DrQA
DrQA+MRC
For AE and ASC:
DE-CNN
MGAN
BERT
BERT-DK
BERT-MRC
BERT-PT
对比结果如下:
以上就是本篇博客的全部内容了,希望对你有所帮助。