首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何使用pyspark统计词频?

假如进化的历史重来一遍,

人的出现概率是零。

—— 古德尔

Spark 作为一个用途广泛的大数据运算平台。

Spark 允许用户将数据加载到多台计算机所建立的 cluster 集群的内存中存储,执行分布式计算,再加上 Spark 特有的内存运算,让执行速度大幅提升,非常适合用于机器学习的算法。况且,spark包含大量开箱即用的机器学习库。

算法包括分类与回归、支持向量机、回归、线性回归、决策树、朴素贝叶斯、聚类分析、协同过滤等。

使用spark必须先了解Spark的核心——RDD

分布式数据集Resiliennt Distributed Datasets(简称RDD)之上的,这使得 Spark 的各个组件可以无缝地进行集成,能够在同一个应用程序中完成大数据处理。

使用spark统计词频

今天分享一个最基础的应用,就是统计语料里的词频,找到高频词。

先初始化spark,然后加载数据

注意以上代码,data是一个list,通过sc.parallelize可以把Python list,NumPy array或者Pandas Series,Pandas DataFrame转成Spark的RDD数据。

然后,开始处理

处理结果

通过简单的代码,了解flatMap的作用

可以看到输出结果,flatMap是先映射后扁平化。

在通过代码,了解countByValue的作用。

x = sc.parallelize([,,])

统计一个RDD中各个value的出现次数。返回一个map,map的key是元素的值,value是出现的次数。

统计词频的技能你get了吗?可以加入mixlab无界社区交流~

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191102A04J1F00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券