什么算法可以用来表征一个预期的清晰的双峰分布,比如在一个样本阵列中具有两个分离良好的峰的正态分布的混合?输出2个均值、2个标准差和某种稳健性估计的结果将是预期的结果。
我感兴趣的是一种算法,它可以用任何编程语言(对于嵌入式控制器)实现,而不是现有的C或Python库或stat包。
如果我知道两个模态均值的比率大约是3:1 +- 50%,标准偏差相对于峰间距来说是“小”的,但这对峰可以在100:1范围内的任何地方,会不会更容易?
发布于 2011-03-27 18:32:20
这里有两种不同的可能性。一个是你有一个双峰分布。另一种是,您正在观察来自两个不同分布的数据。通常估计后者的方法是在称为mixture model的东西中,这并不奇怪。
你的估计方法是使用最大似然方法或使用马尔可夫链蒙特卡罗方法,如果你想要采取贝叶斯观点的问题。如果你更详细地陈述你的假设,我愿意帮助你尝试并弄清楚你想要尝试和最大化的目标函数。
这些类型的模型可能是计算密集型的,所以我不确定您是否愿意尝试在嵌入式控制器中执行整个统计方法。黑客攻击可能更合适。如果两个峰实际上分离得很好,我认为更容易尝试识别两个峰,并在它们之间拆分数据,并独立地估计每个分布的平均值和标准差。
https://stackoverflow.com/questions/5451089
复制相似问题