[论文笔记]GPT

阅读: 评论:0

[论文笔记]GPT

[论文笔记]GPT

引言

今天带来论文Improving Language Understanding by Generative Pre-Training的笔记,它的中文题目为:通过生成式预训练改进语言理解。其实就是GPT的论文。

自然语言理解可以应用于大量NLP任务上,比如文本蕴含、问答、语义相似和文档分类。虽然无标签文本语料是丰富的,但是用于训练这些特定任务的有标签文本语料是匮乏的,使得区分性训练模型难以表现出足够的性能。

作者证明了通过在多样化的未标记文本语料库上对语言模型进行生成式预训练,然后在每个特定任务上进行微调,可以在这些任务上取得巨大的收益。作者在微调过程中利用了任务感知的输入转换,可以实现有效的迁移,同时对模型架构的改动要求最小。

总体介绍

尽管有时我们可以获得一些有标记数据,但现在无标记数据上进行预训练是可以得到很大的收益的。比如预训练的词嵌入可以提升很多NLP任务的表现。

然而,利用无标记文件中的更多信息除了单词级别外,存在两个主要调整。首先,目标尚未清楚哪种优化目标可以最有效地学习可用于迁移的文本表示。其次,关于如何最有效地将这些学习到的表示迁移到目标任务上,尚未达成共识。

在本篇论文中,作者为自然语言理解任务探索了一个半监督(semi-superevised)方式,具体地,使用一个无监督预训练和有监督微调组合的方式。目标是学习一种通用的表示方法,可以在各种任务中进行迁移而仅需要少量的适应。

采用一个两阶段的

本文发布于:2024-02-02 21:10:33,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170687943346462.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:笔记   论文   GPT
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23