首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >DP-GMM和在线集群分配

DP-GMM和在线集群分配
EN

Stack Overflow用户
提问于 2016-09-19 11:27:32
回答 1查看 276关注 0票数 3

我期望scikit learn的DP-GMM允许在给定新数据的情况下在线更新集群分配,但sklearn的DP-GMM实现只有一个fit方法。

我对变分推理的理解还不清楚,我认为无法在线更新聚类分配是sklearn的实现所特有的,而不是无限GMM的变分推理。

如果有人能澄清这一点并指出一个能够在线更新集群分配的实现,我将非常感激!

http://scikit-learn.org/stable/modules/generated/sklearn.mixture.DPGMM.html

EN

回答 1

Stack Overflow用户

发布于 2016-09-23 10:41:37

发布Dawen Liang的解释:

  1. 贝叶斯非参数并不等同于在线学习。这只意味着根据数据来确定模型的复杂性,这可以在批量学习环境中发生(就像sklearn的DP-GMM实现一样)。
  2. 变分推理本质上是一种基于优化的方法,因此您当然可以应用随机优化方法,这使您能够进行在线学习。将随机变分推理应用于贝叶斯非参数模型实际上仍是一个活跃的研究领域。

Emily Fox's sampler sticky HDP-HMM

John Paisley's group HDP-HMM Matt Hoffman's infinite HMM (perhaps not HDP)

1http://www.stat.washington.edu/~ebfox/software/HDPHMM_HDPSLDS_toolbox.zip

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/39564929

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档