预训练模型在学到语言学知识的同时,可能还保存了训练数据中的 relational knowledge, 并且也许可以回答完形填空之类的问题。
语言模型相比于结构化的知识库具有很多优势,比如
我们对各种预训练语言模型中已有的(没有 fine-tuning) relational knowledge 进行了深度分析。我们发现:
预训练语言模型在未经 fine-tuning 就对事实性知识具有惊人的召回能力,这显示它们作为无监督开放领域问答系统的潜力。
相关代码:
为了填充知识库,需要复杂的 NLP pipeline, 涉及到实体抽取,共指消歧,实体链接和关系抽取(Surdeanu and Ji, 2014). 这些组件通常需要有监督
本文发布于:2024-01-28 00:32:32,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/17063731533568.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |