论文摘要
迁移学习已经对计算机视觉领域产生了很大的影响,但NLP领域的现有方法仍然需要针对任务进行修改和从零开始进行训练。本文提出一种有效的迁移学习方法——通用语言模型微调(Universal Language Model Fine-tuning, ULMFiT),该方法可应用于任何NLP任务,并介绍了对语言模型进行微调的关键技术。
2、混淆梯度
标题:ObfuscatedGradientsGiveaFalse Sense of Security: Circumventing Defenses toAdversarial Examples
作者:Anish Athalye, Nicholas Carlini, David Wagner
3、ELMo:最好用的词向量
标题:Deep contextualized word representations
作者:Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer
概要总结
艾伦人工智能研究所的团队提出一种新型的深层语境化单词表示——语言模型嵌入(Embeddings from Language Models, ELMo)。在ELMo增强的模型中,每个单词都是基于它所使用的整个上下文向量化的。在现有的NLP系统中加入ELMo可以减少6-20%的相对误差,显著减少训练模型所需的时间,以及显著减少达到基线性能所需的训练数据量。
4、序列建模:时间卷积网络取代RNN
标题:An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling
作者:Shaojie Bai, J. Zico Kolter, Vladlen Koltun
7、分解任务迁移学习
标题:Taskonomy: Disentangling Task Transfer Learning
ByAmir R. Zamir,Alexander Sax,William Shen,Leonidas J. Guibas,Jitendra Malik,Silvio Savarese(2018)
10、BERT:深度双向变换器语言理解的预训练
标题:BERT: Pre-Training of Deep Bidirectional Transformers for Language Understanding
By Jacob Devlin,Ming-Wei Chang,Kenton Lee,Kristina Toutanova(2018)