检索增强型语言表征模型预训练

自然语言处理的最新进展以 无监督预训练 为基础,使用大量文本训练通用语言表征模型 (language representation models),无需人工标注或标签。这些预训练模型,如 bert和 roberta,经证明可以记忆大量世界知识,例如“the birthplace of francesco bartolomeo conti”、“the developer of jdk”和“the owner of border tv”。
roberta
https://arxiv.org/abs/1907.11692
经证明可以记忆大量世界知识
https://arxiv.org/pdf/1909.01066.pdf
虽然知识编码能力对于某些自然语言处理任务(如问题回答、信息检索和文本生成等)尤为重要,但这些模型是 隐式地 记忆知识,也就是说世界知识在模型权重中以抽象的方式被捕获,导致已存储的知识及其在模型中的位置都难以确定。此外,存储空间以及模型的准确率也受到网络规模的限制。为了获取更多的世界知识,标准做法是训练更大的网络,这可能非常缓慢或非常昂贵。
如果有一种预训练方法可以 显式地 获取知识,如引用额外的大型外部文本语料库,在不增加模型大小或复杂性的情况下获得准确结果,会怎么样?
例如,模型可以引用外部文集中的句子“francesco bartolomeo conti was born in florence”来确定这位音乐家的出生地,而不是依靠模型隐晦的访问存储于自身参数中的某个知识。像这样检索包含显性知识的文本,将提高预训练的效率,同时使模型能够在不使用数十亿个参数的情况下顺利完成知识密集型任务。
在 2020 icml 我们介绍的 “realm: retrieval-augmented language model pre-training”中,我们分享了一种语言预训练模型的新范例,用 知识检索器 (knowledge retriever) 增强语言模型,让 realm 模型能够从原始文本文档中 显式 检索文本中的世界知识,而不是将所有知识存储在模型参数中。我们还开源了 realm 代码库,以演示如何联合训练检索器和语言表示。
realm: retrieval-augmented language model pre-training
https://arxiv.org/abs/2002.08909
realm 代码库
https://github.com/google-research/language/tree/master/language/realm
背景:预训练语言表征模型
要了解标准语言表征模型记忆世界知识的方式,首先应该回顾这些模型的预训练过程。自从 bert 问世以来,称为遮蔽语言建模 (masked language modeling) 的填空任务已广泛用于预训练语言表征模型。给定某些单词被遮盖的文本,任务是填充缺失的单词。任务的样本如下所示:
i am so thirsty. i need to __ water.
预训练期间,模型将遍历大量样本并调整参数,预测缺失的单词(上述样本中的答案:answer: drink)。于是,填空任务使模型记住了世界中的某些事实。例如,在以下样本中,需要了解爱因斯坦的出生地才能填补缺失单词:
einstein was a __-born scientist. (answer: german)
但是,模型捕获的世界知识存储在模型权重中,因此是抽象的,难以模型到底理解存储了哪些信息。
检索增强型语言表征模型预训练
与标准语言表征模型相比,realm 通过 知识检索器 增强语言表征模型,首先从外部文档集中检索另一段文本作为支持知识,在实验中为 wikipedia 文本语料库,然后将这一段支持文本与原始文本一起输入语言表征模型。
wikipedia 文本语料库
https://archive.org/details/wikimediadownloads
realm 的关键理念是检索系统应提高模型填补缺失单词的能力。因此,应该奖励提供了更多上下文填补缺失单词的检索。如果检索到的信息不能帮助模型做出预测,就应该进行阻拦,为更好的检索腾出空间。
假定预训练期间只有未标记的文本,那么该如何训练知识检索器?事实证明,可以使用填补单词的任务来间接训练知识检索器,无需任何人工标注。假设查询的输入为:
we paid twenty __ at the buckingham palace gift shop.
在没有检索的情况下,很难填补句子中缺失的单词 (answer: pounds),因为模型需要隐式存储白金汉宫所在国家和相关货币的知识,并在两者之间建立联系。如果提供了一段与从外部语料库中检索的必要知识显式连接的段落,模型会更容易填补缺失的单词。
在此例中,检索器会因为检索以下句子获得奖励。
buckingham palace is the london residence of the british monarchy.
由于检索步骤需要添加更多上下文,因此可能会有多个检索目标对填补缺失单词有所帮助,例如“the official currency of the united kingdom is the pound.”。下图演示了整个过程:
realm 的计算挑战
扩展 realm 预训练使模型从数百万个文档中检索知识具有一定挑战性。在 realm 中,最佳文档选择为最大内积搜索 (maximum inner product search,mips)。检索前,mips 模型需要首先对集合中的所有文档进行编码,使每个文档都有一个对应的文档向量。输入到达时会被编码为一个查询向量。在 mips 中,给定查询就会检索出集合中文档向量和查询向量之间具有最大内积值的文档,如下图所示:
realm 采用 scann软件包高效执行 mips,在预先计算文档向量的情况下,相对降低了寻找最大内积值的成本。但是,如果在训练期间更新了模型参数,通常有必要对整个文档集重新编码文档向量。为了解决算力上的挑战,检索器经过结构化设计可以缓存并异步更新对每个文档执行的计算。另外,要实现良好性能并使训练可控,应每 500 个训练步骤更新文档向量而不是每步都更新。
将 realm 应用于开放域问答
将 realm 应用于开放域问答 (open-qa) 评估其有效性,这是自然语言处理中知识最密集的任务之一。任务的目的是回答问题,例如“what is the angle of the equilateral triangle(等边三角形的一角是多少度)?”
在标准问答任务中(例如 squad 或 natural questions),支持文档是输入的一部分,因此模型只需要在给定文档中查找答案。open-qa 中没有给定文档,因此 open-qa 模型需要自主查找知识,这就使 open-qa 成为检查 realm 有效性的绝佳任务。
squad
https://arxiv.org/abs/1606.05250
natural questions
https://ai.google.com/research/naturalquestions/
下图是 openqa 版本 natural question 的结果。我们主要将结果与 t5 进行比较,t5 是另一种无需标注文档即可训练模型的方法。从图中可以清楚地看到,realm 预训练生成了非常强大的 open-qa 模型,仅使用少量参数 (300m),性能就比更大的 t5 (11b) 模型要高出近 4 个点。
结论
realm 有助于推动人们对端到端检索增强型模型的关注,包括最近的一个检索增强型生成模型。我们期待以多种方式扩展这一工作范围,包括 :
将类似 realm 的方法应用于需要知识密集型推理和可解释出处的新应用(超越 open-qa)
了解对其他形式的知识进行检索的好处,例如图像、知识图谱结构甚至其他语言的文本。我们也很高兴看到研究界开始使用开源 realm 代码库!
检索增强型生成模型
https://arxiv.org/abs/2005.11401
realm 代码库
https://github.com/google-research/language/tree/master/language/realm

LGD将扩充低温多晶氧化物薄膜晶体管工艺设备
紫燕首次亮相最新研发的新一代智能无人直升机“穿越者Ranger P2”巡察二代
如何领取分叉币可以将风险降到最低
电能质量分析仪在电网中的应用
利用无人机加上热成像仪降低执法人员安全风险
检索增强型语言表征模型预训练
焊锡膏在smt晶片生产加工中的应用
怎样对自动气象站的传感器进行维护保养?
新爱沙尼亚许可证将允许Ibinex为加密货币交易提供各种交易服务
无线电力技术发展现状如何?
LED照明常用术语
5G OTT盒子有哪些优势?
深圳区块链技术开发公司永续合约期货系统开发
风河:无人驾驶还只死盯着算法和传感器?
Ambrogio推出最新一代人工智能割草机器人
东芝开发出高效照明用OEL元件 发光效率高达91lm/W
索尼发布工业SWIR图像传感器,可覆盖广泛波长范围
称重传感器的接线原理以及常见的接线问题
IEO的发展现状及优缺点介绍
智能差压变送器的安装方法