Language Models as Knowledge Bases?

阅读: 评论:0

Language Models as Knowledge Bases?

Language Models as Knowledge Bases?

Abstract

预训练模型在学到语言学知识的同时,可能还保存了训练数据中的 relational knowledge, 并且也许可以回答完形填空之类的问题。

语言模型相比于结构化的知识库具有很多优势,比如

  • 不需要 schema engineering
  • 支持对于开放关系类别的查询
  • 容易扩展到更多数据
  • 训练时不需要 human supervision

我们对各种预训练语言模型中已有的(没有 fine-tuning) relational knowledge 进行了深度分析。我们发现:

  • BERT 中包含了可以比肩传统 NLP 方法的关系数据,这些传统方法可以使用一些 oracle knowledge.
  • 相比于一个 supervised baseline, BERT 在开发领域问答上表现出色
  • 特定的事实性知识比另外一些知识可以更快地从标准语言模型预训练过程中习得。

预训练语言模型在未经 fine-tuning 就对事实性知识具有惊人的召回能力,这显示它们作为无监督开放领域问答系统的潜力。

相关代码:

Introduction

为了填充知识库,需要复杂的 NLP pipeline, 涉及到实体抽取,共指消歧,实体链接和关系抽取(Surdeanu and Ji, 2014). 这些组件通常需要有监督

本文发布于:2024-01-28 00:32:32,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/17063731533568.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:Models   Language   Bases   Knowledge
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23