[New Paper]Gated Word-Character Recurrent Language Model

    xiaoxiao2021-04-17  231

    本篇将会分享一篇最新的paper,2016年6月6日submit到arxiv上,paper的题目是Gated Word-Character Recurrent Language Model,作者是来自纽约大学的硕士生Yasumasa Miyamoto。

    语言模型或者说一切自然语言生成的问题都面临着一个严峻的挑战就是未登录词(OOV),一般的语言模型处理方法都是将前N个高频词当做词表,后面的低频词都用unk来代替,而且所有的低频词都用同一个词向量来表示。本文的最大贡献在于提出了一种混合char-level和word-level的语言模型,通过一种gate机制来选择是用char-level来表示一个词向量,还是直接用word-level来表示一个词向量。char-level模型的优势在于解决低频词的表达,很多之前分享过的模型都是用char来作为基本单元。

    本文的模型并不复杂,思路也非常清晰,如下图:

    模型分为两个部分:

    1、词向量。模型中的词向量由两部分综合而成。第一部分是传统的词向量,每一个词都用一个低维实向量来表示,第二部分是将每个词认为是一个char-level的序列,用一个双向LSTM来表示这个词。两部分词向量由一个门函数来决定使用哪个,如下式:

    门函数我们见过太多了,尤其是在LSTM和GRU中,各种各样的门函数来控制信息的流动,本文模型中采用了一种非常简单的机制来决定采用哪种词向量,高频词的话,一定是采用传统的word-level方式,直接从lookup table中读取;低频词的话,用char-level的方式获得一个更好的表示。这里需要注意的一点是,门函数的值,也就是说每个单词用哪种词向量是与上下文无关的,只要是同一个单词,就会采用相同的选择方式。

    2、语言模型。这个部分就非常简单了,就是一个典型的RNNLM,这里的隐藏单元采用LSTM。

    实验部分选了三个baseline,(1)仅仅用word-level,(2)仅仅用char-level,(3)将两种词向量拼接。在三个数据集上进行了测试,本文模型比起baseline具有明显的优势。

    最后简单讨论了门函数值与词出现的频率之间的关系,如下图:

    本文采用了一中混合模型,然后用gate mechanism从多个模型中进行选择。这种思路有一种似曾相识的感觉,好比是参加kaggle比赛,通常一个分类器并不能得到最好的结果,混合使用多个分类器往往会得到更好的结果。本文的感觉有一点类似,用了char-level的优势来弥补word-level的劣势,从而取得更好的效果。也是一种很好的启发。

    来源:paperweekly

    原文链接

    相关资源:七夕情人节表白HTML源码(两款)

    最新回复(0)