", 12)
PySpark 中 , 将 二元元组 中
第一个元素 称为 键 Key ,
第二个元素 称为 值 Value ;
按照 键 Key 分组 , 就是按照 二元元组 中的 第一个元素 的值进行分组..."Tom", 18) 和 ("Tom", 17) 元组分为一组 , 在这一组中 , 将 18 和 17 两个数据进行聚合 , 如 : 相加操作 , 最终聚合结果是 35 ;
("Jerry", 12)...和 ("Jerry", 13) 分为一组 ;
如果 键 Key 有 A, B, C 三个 值 Value 要进行聚合 , 首先将 A 和 B 进行聚合 得到 X , 然后将 X 与 C 进行聚合得到新的值...Value 相加
rdd2 = rdd.reduceByKey(lambda a, b: a + b)
# 打印新的 RDD 中的内容
print(rdd2.collect())
# 停止 PySpark..., 统计文件中单词的个数 ;
思路 :
先 读取数据到 RDD 中 ,
然后 按照空格分割开 再展平 , 获取到每个单词 ,
根据上述单词列表 , 生成一个 二元元组 列表 , 列表中每个元素的 键