前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >这是 隐马尔科夫模型(HMM) 的 2 个基本假设

这是 隐马尔科夫模型(HMM) 的 2 个基本假设

作者头像
double
发布2018-07-25 18:12:53
3.1K0
发布2018-07-25 18:12:53
举报
文章被收录于专栏:算法channel

上一篇 1个例子解释 隐马尔科夫模型(HMM) 的 5 个基本要素 说了隐马尔可夫模型 (HMM) 的参数,细分的话,包括 5 个基本要素:

1). 隐含状态 S

这些状态之间满足马尔可夫性质,是马尔可夫模型中实际所隐含的状态。这些状态通常无法通过直接观测而得到。

2). 可观测状态 O

在模型中与隐含状态相关联,可通过直接观测而得到,例如O1、O2、O3等。

3). 初始状态概率矩阵 π

表示隐含状态在初始时刻 t=1 的概率矩阵,例如 t=1 时,P(S1)=p1、P(S2)=P2、P(S3)=p3,则初始状态概率矩阵 π=[ p1 p2 p3 ].

4). 隐含状态转移概率矩阵 A

描述了HMM模型中 各个隐含状态 之间的转移概率,Aij = P( Sj | Si ), 1≤i, j≤N

表示在 t 时刻、状态为 Si 的条件下,在 t+1 时刻状态是 Sj 的概率。

5). 观测状态转移概率矩阵 B,英文为 Confusion Matrix,令N代表隐含状态数目,M代表可观测状态数目,则:Bij = P( Oi | Sj ), 1≤i≤M, 1≤j≤N ,表示在 t 时刻、隐含状态是 Sj 条件下,观察状态为 Oi 的概率。

HMM 的定义建立在两个基本假设的前提上,你知道这两个基本假设吗?这两个假设是 HMM 的重点,一定要了解模型的 2 个假设。

齐次马尔科夫假设

齐次马尔科夫假设,通俗地说就是 HMM 的任一时刻 t 的某一状态只依赖于其前一时刻的状态,与其它时刻的状态及观测无关,也与时刻 t 无关。

上面表达兑现为公式的话,如下所示:

t+1 时刻的状态只依赖于 t 时刻的状态,与观测状态无关。

观测独立假设

观测独立性假设,是任一时刻的观测只依赖于该时刻的马尔科夫链的状态,与其他观测及状态无关。

观测独立假设兑现为公式如下:

t+1 时刻的观测只依赖于 t+1 时刻的马尔科夫链的状态,与其他观测状态无关。

总结

以上这两个假设是 HMM 的核心,之后的公式推导都是依赖这两个假设成立的基础上进行的。

相关链接

[1] 隐马尔科夫模型HMM的前向算法和后向算法

https://blog.csdn.net/xmu_jupiter/article/details/50956389

点击以下标题查看相关内容:

  • 深度学习|大师之作,必是精品
  • 免费送6本精选的算法,机器学习,深度学习的书
  • 机器学习、深度学习干货分享
  • 自然语言处理|语言模型介绍
  • 自然语言处理之词To词向量
  • 一文了解自然语言处理的每个范畴用到的核心技术,难点和热点(1)
  • NLP入门:CNN,RNN应用文本分类,个性化搜索,苹果和乔布斯关系抽取(2)
  • 下一代信息服务新风口:以自然语言为基本输入方式的问答系统综述(附两篇论文)
  • 一文梳理NLP之机器翻译和自动摘要的发展现状
  • 斯坦福大学NLP课程笔记系列1:深度学习应用于NLP介绍
  • TensorFlow 实战 3层网络求解嵌入词向量,附代码详解
  • 1个例子解释 隐马尔科夫模型(HMM) 的 5 个基本要素

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-04-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 程序员郭震zhenguo 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 齐次马尔科夫假设
  • 观测独立假设
  • 总结
  • 相关链接
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档