论文推荐
“SFFAI134期来自复旦大学大数据学院统计学硕士崔立推荐的文章主要关注于自然语言处理的关系抽取领域,你可以认真阅读讲者推荐的论文,来与讲者及同行线上交流哦。”
关注文章公众号
回复"SFFAI134"获取本主题精选论文
01
推荐理由:这篇论文将远程监督的思想引入到关系抽取任务中,基于现有的知识库从语料中获取了大量的标注数据。
02
推荐理由:这篇论文将卷积神经网络应用于关系抽取任务,同时引入多示例学习以解决远程监督带来的样本错误标注的问题。
03
推荐理由:这篇论文通过BERT学习实体在句子中对应描述的向量化表示,并将其整合用于关系抽取任务。
04
推荐理由:这篇论文在应用BERT增强关系抽取模型表示能力的同时探究了不同的样本表示策略对于关系抽取模型性能的影响。
05
推荐理由:这篇论文在小样本学习的分类任务背景下提出了原型网络,基于各个类别的支持样本,生成对应的原型表示用于新样本分类。
06
推荐理由:这篇论文基于原型网络的思想,抽取并存储各个关系标签的典型样本,基于Memory Replay的思想,解决持续关系抽取任务中的灾难性遗忘问题。
分享内容
分享简介
相较于传统的关系抽取任务,持续学习背景下的关系抽取任务不预先设定关系类别,其最大的挑战在于如何使得模型在学习新关系的同时,保持对旧关系的分类能力。本期论坛我们邀请到了来自复旦大学的崔立同学,他提出获取优质的关系原型表示可以帮助模型更好地记忆旧关系的特征,从而维持稳定的表现。
讲者介绍
崔立,复旦大学大数据学院统计学硕士,现就职于北京字节跳动科技有限公司。主要研究方向为知识图谱构建中的关系抽取任务,目前已在ACL与IJCAI等会议上发表论文3篇。
分享题目
一种基于关系原型表示的持续关系抽取方法
分享摘要
本文通过选取并记忆各个关系标签下的典型样本生成关系原型表示并将其用于样本表示优化。本文方法在FewRel以及Tacred数据集上相较EMAR+BERT取得了超过10%的性能提升,且降低了56%的时间消耗。而对比实验进一步说明本文的持续关系抽取方法对典型样本的数量依赖显著地低于其他方法。
题目:Refining Sample Embeddings with Relation Prototypes to Enhance Continual Relation Extraction
论文下载:关注本公众号,对话框回复“SFFAI134”,获取下载
分享亮点
1、本文提出了一种全新的基于关系原型表示的持续关系抽取方法;
2、本文方法基于关系原型优化样本表示,显著地缓解了持续学习中的灾难性遗忘问题;
3、本文方法对存储典型样本的数量依赖显著地低于其他基于记忆的方法。
直播时间
2022年1月9日(周日)20:00—21:00 线上直播
关注本公众号,对话框回复“SFFAI134”,获取入群二维码
注:直播地址会分享在交流群内
SFFAI招募!
现代科学技术高度社会化,在科学理论与技术方法上更加趋向综合与统一,为了满足人工智能不同领域研究者相互交流、彼此启发的需求,我们发起了SFFAI这个公益活动。SFFAI每周举行一期线下活动,邀请一线科研人员分享、讨论人工智能各个领域的前沿思想和最新成果,使专注于各个细分领域的研究者开拓视野、触类旁通。
SFFAI目前主要关注机器学习、计算机视觉、自然语言处理等各个人工智能垂直领域及交叉领域的前沿进展,将对线下讨论的内容进行线上传播,使后来者少踩坑,也为讲者塑造个人影响力。SFFAI还在构建人工智能领域的知识森林—AI Knowledge Forest,通过汇总各位参与者贡献的领域知识,沉淀线下分享的前沿精华,使AI Knowledge Tree枝繁叶茂,为人工智能社区做出贡献,欢迎大家关注SFFAI论坛:。
论文推荐
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!
本文发布于:2024-02-02 13:45:14,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170685271544196.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |