腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
要生成databricks记事本URL以发送警报
、
、
Exception: try: return ( and
spark
_session.conf.get("
spark
.databricks.clusterUsageTags.c
浏览 12
提问于2021-12-06
得票数 1
1
回答
仅在..gitlab ci.yml中对复杂的分离逻辑
、
我正在尝试设置Gitlab CI以满足以下条件: only: - $PROJECT == '
spark
' -
spark
/**/*deploy-
spark
: &a
浏览 0
提问于2019-02-26
得票数 1
3
回答
NameError:未在pyspark中定义名称'dbutils‘
、
、
我在databricks云中运行一个pyspark作业。作为此作业的一部分,我需要将一些csv文件写入databricks文件系统(dbfs),还需要使用一些dbutils本机命令,例如,dbutils.fs.mount (source="...",mount_point="/mnt/...",extra_configs="{key:value}")NameError: nam
浏览 14
提问于2018-06-12
得票数 10
1
回答
在使用泛型函数时没有名为pyspark错误的模块
、
Spark
安装成功,可以从命令提示符轻松调用。解释器还在项目设置中正确配置。我也尝试过用。main.py看起来像是:-os.environ["
SPARK
_HOME"] = "/usr/local/
spark
" .getOrCreate()
except
Exception
浏览 5
提问于2022-09-21
得票数 1
1
回答
如何使用
spark
区分两个表?
、
、
现在我需要使用
spark
来区分两个表,我找到一个sql server的答案如下: FROM table1 SELECT *UNIONALL FROM table2 SELECT *希望有人能告诉我如何在sql服务器中使用这样的
spark
?
浏览 2
提问于2016-12-06
得票数 1
回答已采纳
3
回答
如何在
Spark
SQL上处理AnalysisException?
、
、
、
、
我正试图在
Spark
中执行一个查询列表,但如果查询不能正确运行,
Spark
会抛给我以下错误: AnalysisException:"ALTER TABLE CHANGE COLUMN不支持更改...这是我的代码的一部分(我在Databricks上使用python和
Spark
SQL ): for index, row in df_tables.iterrows(): print ("Executing query: ")
浏览 30
提问于2019-10-05
得票数 11
回答已采纳
1
回答
以编程方式提交pyspark作业,不使用提交pyspark,在python中
、
、
、
我想将
spark
作业从我的本地系统提交到安装了cloudera的远程服务器(
Spark
on YARN)。已经尝试了所有的可能性。'try:
except
Except
浏览 14
提问于2020-01-06
得票数 0
1
回答
在Apache
Spark
2.1.0中使用
Except
on DataFrame
、
、
except
能在
Spark
DataFrames上正常工作吗?res1: Array[org.apache.
spark
.sql.Row] = Array([a], [b], [c])scala> val row1 = grfDF.limit(1) row1: org.apache.
spark
.sql.Dataset[o
浏览 2
提问于2017-04-19
得票数 0
1
回答
Azure Synapse -如何捕获SparkException
、
、
我试过以下几点:from org.apache.
spark
.SparkException import SparkExceptionfrom org.apache.
spark
import SparkException我需要处理Azure中的PySpark异常,如下所示:
exc
浏览 2
提问于2022-02-11
得票数 0
回答已采纳
1
回答
除了火种之外,左撇子有什么区别吗?
、
、
("202003101810", "22222222", 222)someDF5: org.apache.
spark
.sql.DataFrame| ("202003101750", "202003101700",42) | ).toDF("number", "word","value&qu
浏览 1
提问于2020-04-29
得票数 0
回答已采纳
2
回答
在PySpark中将标识符保留在exceptAll中
、
我很好奇是否有一种简单的方法可以在PySpark的exceptALL命令中保留标识ID。例如,假设我有两个数据帧(DF1,DF2),它们都有一个ID列和另一个列“A”。我希望将值为"A“的行保留在DF1中,而不是保留在DF2中,因此基本上我尝试使用exceptAll的常规输出来保留标识符。我附上了一张具有理想输出的图像。 ? 干杯!
浏览 48
提问于2020-01-16
得票数 1
3
回答
如何在
spark
Dataframe中使用
Except
函数
、
现在,我使用
except
函数,它给出了整个行,如下所示: +------+---------+--------+---------+-------+--------+
浏览 697
提问于2018-12-04
得票数 3
回答已采纳
1
回答
输入“AS”不匹配的parseExpression结果,期望{<EOF>,-‘}
、
我试过这个: .master('local[1]') .config("
spark
.sql.legacy.createHiveTableByDefault", "false") try:
浏览 12
提问于2022-08-16
得票数 1
回答已采纳
4
回答
如何以编程方式检测Databricks环境
、
、
我正在编写一个需要在本地以及Databricks上运行的星火作业。
浏览 0
提问于2018-07-13
得票数 16
回答已采纳
1
回答
在AmazonEMR5.12.0中将jdbc写入数据库引发2.2.x问题
、
、
、
、
df.write.jdbc(url, table, properties={"driver": "org.postgresql.Driver"})
except
AttributeError as e:
except
ReferenceError as e:
except
ValueError as e: logging.er
浏览 1
提问于2018-03-09
得票数 0
回答已采纳
1
回答
_jdf丢弃数据帧中的报头,AttributeError: Pyspark
、
、
、
from pyspark.sql import SQLContextavg_calc=
spark
.read.csv("quiz2_algo.csv", header= True,inferSchema=True)no_header_jdf, "
except
")(other._jdf), self.sql_ctx) 13
浏览 1
提问于2018-05-12
得票数 0
1
回答
在
Spark
中减去多个DFs
、
我有一个大的DF (数亿条记录),我希望从多个较小的DF (几百万条记录)中减去这个DF,这些DF实际上是我从数据库中读取的多个表,哪个性能会更好: 1)在所有较小的DF上运行联合,然后运行 2)运行多个,但在各种数据帧上除外 BR
浏览 15
提问于2020-01-05
得票数 0
回答已采纳
1
回答
获取具有map数据类型列的两个
spark
数据帧之间的差异
、
、
我尝试使用传统的
except
方法来获取两个数据帧之间的差异,但是我得到了下面的错误。map (nullable = true) | |-- value: integer (valueContainsNull = false)org.apache.
spark
.sql.AnalysisException: Cannot have map typeis map<st
浏览 1
提问于2020-10-28
得票数 0
1
回答
ModuleNotFoundError:没有名为“pyspark.dbutils”的模块
、
、
、
、
from pyspark.sql import SparkSession def get_dbutils(
spark
): from pyspark.dbutils import DBUtils
except
ImportError: import IPython
浏览 13
提问于2020-05-01
得票数 3
回答已采纳
1
回答
带有额外参数的子类python类继承
、
、
、
Spark
Session if not self.
spark
:self.
spark
= SparkSession.builder.config("
spark
.sql.debug.maxToStringFields", 1000).appName("SparkTest") \
浏览 1
提问于2020-01-06
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券