【关于 Elmo】 那些你不知道的事
DayNightStudy
共 754字,需浏览 2分钟
·
2021-03-02 09:42
作者:杨夕
项目地址:https://github.com/km1994/NLP-Interview-Notes
个人论文读书笔记:https://github.com/km1994/nlp_paper_study
【注:手机阅读可能图片打不开!!!】
一、Elmo 动机篇
1.1 为什么会有 Elmo?
多义词问题:
因为 one-hot、word2vec、fastText 为静态方式,即训练好后,每个词表达固定;
单向性:
因为 one-hot、word2vec、fastText 都是 从左向右 学习,导致该方法 不能 同时考虑 两边信息;
二、Elmo 介绍篇
2.1 Elmo 的 特点?
基于特征融合 的 word emb
2.2 Elmo 的 思想是什么?
预训练时,使用语言模型学习一个单词的emb(多义词无法解决);
使用时,单词间具有特定上下文,可根据上下文单词语义调整单词的emb表示(可解决多义词问题)
理解:因为预训练过程中,emlo 中 的 lstm 能够学习到 每个词 对应的 上下文信息,并保存在网络中,在 fine-turning 时,下游任务 能够对 该 网络进行 fine-turning,使其 学习到新特征;
三、Elmo 问题篇
3.1 Elmo 存在的问题是什么?
在做序列编码任务时,使用 LSTM;
ELMo 采用双向拼接的融合特征,比Bert一体化融合特征方式弱;
参考资料
神经网路语言模型(NNLM)的理解
NLP 面试题(一)和答案,附有参考URL
评论