文本预处理:
完形填空:原文中除去若干关键词,需要模型填入正确的单词或短语。
多项选择:模型需要从给定的若干选项中选出正确答案
答案抽取:回答限定是文章的一个子句,需要模型在文章中标注正确答案的起始和终止位置。
自由回答:不限定模型生成答案的形式,允许模型自由生产数据
完形填空:
单项选择
答案抽取:
自由回答:
特征+传统机器学习
BERT以前:各种神奇的QA架构
BERT以后:预训练+微调+trick
最重要的模块是:Context-Query Interaction
Accuracy:一共m个问题答对了n个
F1
Rouge-L:
最长公共子序列LCS,X为目标,Y为模型,m为标准答案的单词个数,n为模型答案的单词个数。 β beta β一般取无穷大。所以F=R。
BLEU
示例:
candidate: the cat sat on the mat
reference: the cat is on the mat
就 b l e u 2 bleu_2 bleu2对 candidate中的5个词,{the cat,cat sat,sat on,on the,the mat} ,查找是否在reference中,发现有3个词在reference中,所以占比就是0.6
b l e y 1 = 5 6 = 0.83 bley_1= frac{5}{6} = 0.83 bley1=65=0.83
b l e y 3 = 3 5 = 0.60 bley_3= frac{3}{5} = 0.60 bley3=53=0.60
b l e y 3 = 1 4 = 0.25 bley_3= frac{1}{4} = 0.25 bley3=41=0.25
b l e y 4 = 0 3 = 0 bley_4= frac{0}{3} = 0 bley4=30=0
改进后的BLEU
本文发布于:2024-01-30 03:19:09,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170655595318857.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |