②Python数据容器转RDD对象在 PySpark 中,可以通过 SparkContext 对象的 parallelize 方法将 list、tuple、set、dict 和 str 转换为 RDD...")# 基于SparkConf类对象创建SparkContext对象sc=SparkContext(conf=conf)# 通过parallelize方法将Python对象加载到Spark内,成为RDD...51, 2, 3, 4, 5'a', 'b', 'c', 'd', 'e', 'f', 'g'1, 2, 3, 4, 5'key1', 'key2'【注意】对于字符串,parallelize 方法会将其拆分为单个字符并存入...③读取文件转RDD对象在 PySpark 中,可通过 SparkContext 的 textFile 成员方法读取文本文件并生成RDD对象。...saveAsTextFile("D:/output1")rdd2.saveAsTextFile("D:/output2")rdd3.saveAsTextFile("D:/output3")打开output2文本文件