列联表是统计学中的一个强大的工具, 用于观察变量的统计显着性(或独立性). 在Spark 1.4中, 用户将能够将DataFrame的两列进行交叉以获得在这些列中观察到的不同对的计数....5.出现次数多的项目
找出每列中哪些项目频繁出现, 这对理解数据集非常有用. 在Spark 1.4中, 用户将能够使用DataFrame找到一组列的频繁项目....|9|18|1|
+-+--+-+
In [3]: freq = df.stat.freqItems(["a", "b", "c"], 0.4)
给定上面的DataFrame, 下面的代码找到每个列显示出现次数占总的...“11”和“1”是列“a”的频繁值....Python, Scala和Java中提供, 在Spark 1.4中也同样会提供, 此版本将在未来几天发布.