前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >带你理解语言模型

带你理解语言模型

作者头像
触摸壹缕阳光
发布2020-07-14 14:46:42
3820
发布2020-07-14 14:46:42
举报

假设你在输入法中输入"xianzaiquna",输出的可能是:

  • 西安在去哪
  • 现在去哪

显然"西安在去哪"是一句极其别扭不通的句子,所以我们会很自然的选择输出"现在去哪",但是输入法没有我们那么智能能够一下子就判断出要输出哪一句话,输入法会计算出两个句子的概率值,然后通过比较选择概率值大的句子作为最终的输出结果,计算句子概率值的工具就是语言模型。

语言模型的应用非常广泛,比如在输入法中输入拼音可以智能预测可能的输出结果,或者在谷歌或者百度搜索时自动填充可能的搜索文本等都是语言模型的应用。语言模型是很多涉及到产生文字或预测文字概率的NLP问题的组成部分,比如神经网络机器翻译的Seq2Seq模型可以看作是一个条件语言模型,它相当于是在给定输入的情况下对目标语言的所有句子估计概率,并选择其中概率值最大的句子作为输出。

假设一门语言中所有可能的句子服从某一个未知的概率分布,这门语言中的所有句子出现的概率之和为1,给定其中某个句子

w

,语言模型(Language Model, LM)的任务就是预测句子

w

在语言中出现的概率。显然我们没有办法枚举出这一门语言的所有句子,因此只能采样一个小型的样本空间,称为语料库。于是,这个未知的概率分布就统计自某个人工标注而成的语料库。

现在我们人工标注一个小型的语料库,语料库中共有三个句子:

代码语言:javascript
复制
商品 和 服务
商品 和服 物美价廉
服务 和 货币

基于这个小型语料库的计数统计,我们可以估计出世界上任何一个汉语句子的概率:

p(商品 和 服务) = \frac{1}{3}、p(商品 和服 物美价廉) = \frac{1}{3}、p(服务 和 货币) = \frac{1}{3}

,其它所有的句子的概率都为0,这就是语言模型。

显然在真实场景中使用的语料库要比上面的小型语料库复杂庞大的多,但是无论多么庞大的语料库都会面临下面两个问题:

  1. 只有在语料库中的句子才有概率值,其余不在语料库中的所有句子的概率值全部为0;
  2. 通常在语料库中几乎没有完全相同的两个句子,这意味着几乎所有可见句子的频次都是1;

显然靠简单的枚举是不可行的,我们需要一种可计算、更合理的概率估计方法。句子无限多个,但是组成句子中的单词确实有限的。于是考虑从单词构成句子的角度出发去建模句子,把句子表示成

w = w_1, w_2, w_3, ... w_n

,其中

w_i

为第i个单词。

现在将计算句子

p(w)

的概率值转换为计算

p(w_1w_2w_3...w_n)

的概率值,根据全概率公式

p(AB) = p(B|A)p(A)

可得:

\begin{aligned}p(w) &= p(w_1w_2w_3...w_n) \\&= p(w_1|w_0) \times p(w_2 | w_0w_1)\times ... \times p(w_{n + 1} |w_0w_1w_2w_3...w_n) \\&=\prod_{i = 1}^{n + 1}p(w_t|w_0w_1w_2...w_{t-1}) \end{aligned}

其中,

w_0 = BOS

(Begin OF Sentence, 有时也用<s>),

w_{n+1}= EOS

(End OF Sentence, 有时也用</s>),它们是用来标记句子首尾的两个特殊"单词"。计算出这些条件概率值,将这些条件概率值相乘即可求出句子

w

的概率值。现在的问题就变成如何计算这些条件概率值?

这里使用极大似然估计的方法来计算每个条件概率值,简单来说利用数据集

D

的似然函数来估计条件概率值,一般假设数据集中的句子都是都是相互独立的,将数据集

D

的似然函数

L(D)

中的每个句子展开成条件概率值的形式,然后等式两边取log对数,将似然函数中的乘法转换成具体的加法。此时的参数为这些条件概率,我们需要找出使得数据集

D

可能性最大的条件概率参数,极大似然估计的形式定义为

\theta =\mathop{\arg\max}\limits_{\theta}\ log\ L(D)

,不过需要注意这些条件概率参数是有天然的条件的,比如对于

p(w_i|w_1)

条件概率:

\sum_{w_i\in V}^{}p(w_i|w_1) = 1

,此时的

V

为词汇集合;

0 \leq(w_i|w_1) \leq 1

,概率值介于0~1之间;

求解有约束的最优化问题最简单的方法就是利用拉格朗日乘数法。利用极大似然估计计算的条件概率值为:

p(w_t|w_0w_1w_2...w_{t-1}) = \frac{c(w_0...w_t)}{c(w_0...w_{t-1})}

其中,

c(w_0...w_t)

表示

w_0...w_t

的计数。

现在我们来利用上面那个具有三个句子的小型语料库来计算一下"商品 和 服务"这句话的概率值,需要在句子的首尾分别添加

BOS

EOS

标记:

p(商品\ 和\ 服务) = p(商品|BOS)p(和|BOS\ 商品)p(服务|BOS\ 商品\ 和)p(EOS|BOS\ 商品\ 和\ 服务)

其中:

p(商品|BOS) = \frac{c(BOS\ 商品)}{c(BOS)}

c(BOS\ 商品)

只需要统计语料库中"商品"作为第一个单词出现的次数为2,

c(BOS)

只需要统计语料库中所有单词作为第一个单词出现的次数为3,即

p(商品|BOS) = \frac{c(BOS\ 商品)}{c(BOS)} = \frac{2}{3}

p(和|BOS\ 商品)=\frac{c(BOS\ 商品\ 和)}{c(BOS\ 商品)}

c(BOS\ 商品\ 和)

只需要统计语料库中"BOS 商品 和"出现的次数为1,

c(BOS\ 商品)

只需要统计语料库中"BOS 商品"出现的次数为2,即

p(和|BOS 商品)=\frac{c(BOS\ 商品\ 和)}{c(BOS\ 商品)} = \frac{1}{2}

同理

p(服务|BOS\ 商品\ 和) =\frac{1}{1}

p(EOS|BOS\ 商品\ 和\ 服务) = \frac{1}{1}

。整个句子的概率值为四个条件概率的乘积:

p(商品\ 和\ 服务)=\frac{2}{3}\times\frac{1}{2}\times\frac{1}{1}\times\frac{1}{1}=\frac{1}{3}

在实际的语料库中词汇量(单词的数量)会非常大,因此单词组合更是不计其数。假设现在有一个语料库的词汇量为

V

,如果要将

p(w_t|w_0w_1w_2...w_{t-1})

的所有参数都保存在一个模型里,将需要

V^t

个参数。通常句子会比较长,因此一般情况下计算代价会非常大,即使使用一些优化方法(比如字典树索引等)计算代价依然不菲。

为了估计这些参数的取值,常见的方法有n-gram模型、决策树、最大熵模型以及神经网络语言模型等。

参考:

  1. 《自然语言处理入门》
  2. 《实战Google深度学习框架》
  3. http://web.stanford.edu/class/cs224n/slides/cs224n-2019-lecture06-rnnlm.pdf
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-07-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI机器学习与深度学习算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档