论文笔记——EMPATHETIC RESPONSE GENERATION VIA EMOTION CAUSE TRANSITION GRAPH

阅读: 评论:0

论文笔记——EMPATHETIC RESPONSE GENERATION VIA EMOTION CAUSE TRANSITION GRAPH

论文笔记——EMPATHETIC RESPONSE GENERATION VIA EMOTION CAUSE TRANSITION GRAPH

论文评价

发表在ICASSP,即International Conference on Acoustics, Speech and Signal Processing,是IEEE名下的,很明显这并不是一个做文本的学术会议

总体评价是:这不是一篇好的论文,只能是说思路可以看,但细节完全不忍直视。

论文创新点:

不同于传统的使用情绪分类器先提取出情绪的方法,这篇文章使用了情绪诱因提取的方式来增强共情对话生成(虽然这一方法并不是该文章首创)。

论文思路:

首先要说明的是关于数据集的修改,

作者对数据集进行了补充,原数据集(也就是2019年发表的EmpatheticDialogue,ED)并没有对情绪诱因进行标注,于是作者手工增加了标准便于训练。

原数据集对对话标注了emotion标签,但emotion标签原则上不能直接当成已知的(因为对话本身是不会有emotion标注的),但本文当中,作者并没有解释他的emotion标签是怎么来的,我觉得可能就是直接用了数据集里的(这样做是完全错误的)。

模型思路如下:

用spanBERT对"上下文 [SEP] emotion"进行编码,然后使用指针网络把情绪诱因的开始和结束位置提出来,再用基于规则的方式提取出诱因片段的关键词(但我印象中好像有KeyBERT可以用)。

所有提取出的关键词会被当成图里的节点(vertex,或者文中使用的concept),构建一个图。

结合经过BERT的上下文编码和图,使用Transformer Decoder进行解码.。

但文章认为可能解码器过于关注那些出现频率比较高的关键词(或者说图的顶点),于是使用了Insert Transformer,将decoder中层的输出当作输入,真正的回复当作label,用多任务学习来优化deocder(虽然我并不知道这为什么能解决他提出的问题,作者也没有解释)。

最终使用BERT作为编码器,将预测出的回复节点和上下文连起来放入BERT进行编码,然后再放到Transformer解码器中解码,得到最终的输出。

实验结果

我不知道是arxiv的问题还是论文就是这样,实验结果的大表格是没有标题的。只能通过和另一个表的数据对比大概能看出是什么,对应的应该是这样:

 实验结果中写的其他论文的数据在原论文中也不是这么低,至于是谁有问题那我就不知道了

 

 

本文发布于:2024-01-28 10:33:10,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/17064091966800.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:笔记   论文   EMPATHETIC   RESPONSE   GRAPH
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23