首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >org.apache.spark.SparkException:作业中止

org.apache.spark.SparkException:作业中止
EN

Stack Overflow用户
提问于 2022-09-01 15:21:21
回答 1查看 380关注 0票数 0

抱歉,同样的问题。我看到这么多的帖子是为了舞台的失败。但所有这些都无法解决我的问题。.While I正在运行commandDriver: Standard_D12_v2,Workers: Standard_D12_v2,2-8 workers,10.4LTS(包括ApacheSpark3.2.1,Scala2.12),但它正在抛出错误。org.apache.spark.SparkException:作业中止了。

EN

回答 1

Stack Overflow用户

发布于 2022-09-15 06:35:45

您可以解决此作业中止的错误,或者更改集群中的“星火配置”,或者在从一个表插入数据库中的另一个表时使用"try_cast“函数。

使用dbr版本:10.4LTS(包括ApacheSpark3.2.1、Scala2.12)

对于火花托拉斯,通过编辑集群编辑火花选项卡,并在那里使用下面的代码。

"spark.sql.ansi.enabled假“

或者使用try_cast函数。https://learn.microsoft.com/en-us/stream-analytics-query/try-cast-azure-stream-analytics。我已经解决了。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/73571859

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档