首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >spark.debug.maxToStringFields不起作用

spark.debug.maxToStringFields不起作用
EN

Stack Overflow用户
提问于 2021-03-27 02:01:34
回答 1查看 2.1K关注 0票数 0

我尝试设置"spark.debug.maxToStringFields",如消息WARN Utils: Truncated the string representation of a plan since it was too large. This behavior can be adjusted by setting 'spark.debug.maxToStringFields' in SparkEnv.conf.中所描述的那样。请找到下面的代码

代码语言:javascript
运行
复制
val sparkConf= new SparkConf()
//here
sparkConf.set("spark.debug.maxToStringFields", "100000")
sparkConf.set("spark.sql.debug.maxToStringFields", "100000")
val spark = SparkSession.builder.config(sparkConf).getOrCreate() 
//here
spark.conf.set("spark.debug.maxToStringFields", 100000)
spark.conf.set("spark.sql.debug.maxToStringFields", 100000)

val data = spark.read
        .option("header", "true")
        .option("delimiter", "|")
        .format("csv")
        .csv(path_to_csv_file)
        .toDF()
        .repartition(col("country"))

data.rdd.toDebugString

我只得到带有上述警告消息的toDebugString的部分输出。如你所见,我两种选择都试过了。为什么它不打印完整的RDD谱系?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-03-28 06:46:20

你能在这里查一下吗:

https://www.programcreek.com/scala/org.apache.spark.SparkEnv

我认为你必须把这个值设定为

代码语言:javascript
运行
复制
val sparkenv = SparkEnv.get sparkenv.conf.set("spark.oap.cache.strategy", "not_support_cache")
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/66827364

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档