腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(8151)
视频
沙龙
2
回答
Pyspark
在
尝试
使用
udf
时
抛出
IllegalArgumentException
:‘
不支持
的
类
文件
主要
版本
55
’
、
、
、
在
pyspark
中
使用
udfs
时
,我遇到了以下问题。 只要我不
使用
任何
udf
,我
的
代码就能很好地工作。执行简单
的
操作(如选择列)或
使用
sql函数(如concat )都没有问题。一旦我
在
使用
自定义函数
的
DataFrame上执行操作,程序就会崩溃,并出现以下异常: WARNING: An illegal reflective access operation has occurred<
浏览 43
提问于2019-06-05
得票数 1
回答已采纳
2
回答
Java 11
的
火花
、
当用于Java 11
时
,Spark 2.x会出现以下错误 Spark3.0还有其他解决办法可以
在
Spark中
使用
Java 11吗?
浏览 2
提问于2020-07-14
得票数 5
1
回答
配置单元3.1.2 UDAF
在
Spark 3.0.0中不起作用
、
、
、
、
pyspark
.sql.utils.AnalysisException: No handler for
UDF
/UDAF/UDTF 'org.apache.hadoop.hive.ql.
udf
.generic.GenericUDAFHistogramNumericLorg.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;, boolean, boolean); line 4 pos 29 当我
尝试
在
Spark
浏览 108
提问于2020-09-16
得票数 1
回答已采纳
2
回答
如何在同一个
文件
中从另一个
类
函数中调用
类
函数,从而创建吡火花
udf
?
、
、
、
、
我
在
一个基于
类
的
视图中创建了一个
pyspark
,
在
另一个基于
类
的
视图中,我拥有了我想要调用
的
函数,它们都位于同一个
文件
(api.py)中,但是当我检查由此产生
的
dataframe
的
内容
时
,我会得到以下错误当您
使用
基于
类
的
视图
时
,创建
pyspark
的
正确方法是什么?
在<
浏览 2
提问于2020-03-22
得票数 1
2
回答
用火花酸洗错误-提交"_pickle.PicklingError:来自__newobj__ args
的
args[0]有错误
的
类
“
、
、
、
、
当试图通过Submit或Zeppelin运行一些代码
时
,我得到了以下错误:"_pickle.PicklingError:来自__ newobj __ args
的
args有错误
的
类
“奇怪
的
是,前两次通过齐柏林飞艇运行我
的
代码我得到了错误,但是
在
第三次
尝试
之后,它运行得很好,输出就是我期望
的
结果。追溯(最近一
浏览 3
提问于2017-10-22
得票数 1
5
回答
来自自定义模块
的
函数不是
在
PySpark
中工作,而是
在
交互模式下输入时工作。
、
我已经编写了一个模块,其中包含了
在
PySpark
DataFrames上工作
的
函数。它们对DataFrame中
的
列进行转换,然后返回一个新
的
DataFrame。通过
尝试
使用
str2num函数,我检查是否实际导入了我
的
模块:97 所以它实际上是
在
导入模块。,而不是导入模块,而是
在
交互式shell中定义了str2num函数和
UDF
。然后,我输入了最后
浏览 6
提问于2016-03-10
得票数 7
回答已采纳
2
回答
PySpark
:从dataframe创建数据块吗?
、
、
我有以下格式
的
数据,这是从Hive获得
的
数据格式:1388534400, GOOG, 501388534400, MSFT,
55
1388620800, FB, 61其中日期是当天午夜
的
时代,我们有大约10年前
的
数据(800million'1388534400': 50, '138862080
浏览 0
提问于2018-12-26
得票数 1
回答已采纳
1
回答
如何在Jupyter笔记本中更改spark workers在运行时
使用
的
python可执行
文件
、
、
我正在
使用
YARN设置Spark集群,其中Jupyterhub
在
主节点上运行。我已经
使用
conda在所有节点上安装了python2和3,我希望用户能够指定他们
使用
哪个
版本
的
python执行代码。这是必要
的
,因为Python
UDF
中
使用
的
一些库还
不支持
Python 3。可执行
文件
,并
使用
spark =
pyspark
.sql.SparkSess
浏览 14
提问于2019-04-13
得票数 0
回答已采纳
1
回答
ModuleNotFoundError:没有名为'sklearn‘
的
模块
、
、
、
、
我正在运行一段代码,它
使用
pickled来
使用
一个泡沫化
的
sklearn模型来获取数据。
在
我将引擎更改为Python3.6之前,这在Python2.7中似乎没有问题。而且,似乎只有在运行
UDF
脚本(分布式模式)
时
才会发生这种情况,但是当在
UDF
之外运行时,sklearn工作得很好。每当我
尝试
将dataframe写入数据库
时
,或者
在
另一个实例中,当我
尝试
将数据写入数据库
时
,我都会得到
浏览 12
提问于2022-02-09
得票数 0
1
回答
无法
在
putty中
的
Cron作业中运行python
文件
、
、
我
使用
的
是Putty,它没有Python3,它有python2或python,所以
尝试
使用
命令来运行python
文件
。
55
08 * * * /usr/bin/python2 /home/user/file.py 还有几条其他命令,但什么也没起作用。我所拥有的python
文件
运行得非常好,可以
使用
闪烁2-submit命令。这是一个被转换为python
的
pyspark
浏览 4
提问于2022-07-24
得票数 1
2
回答
在
openjdk11下执行sonar-maven-plugin
时
不支持
的
类
文件
主要
版本
55
、
、
、
我看了看类似的问题和回复,但没有找到我
的
解决方案。 我正在
使用
openjdk11和apache-maven-3.5.4进行项目编译和打包,一切工作正常,应用程序运行正常。但是
在
我通过maven命令连接到sonarcube服务器
的
基础上执行声纳分析
时
,它失败了,并且发生了一些问题。当我
使用
jdk6和maven 3.2.1
时
,这个命令起作用了。
使用
的
maven命令: mvn sonar:sonar -Dsonar.host.url={my
浏览 0
提问于2018-10-19
得票数 12
2
回答
从
Pyspark
调用另一个自定义Python函数
、
、
、
x) + 1import
pyspark
.sql.functions as fndf.withColumn('x1', _
udf
(df['x'])).show() 如果我们
在
定义这两个函数(udfs.py)
的
文件
中执行此操作,则工作正常。但是,我
的
目标是
在</em
浏览 0
提问于2019-04-15
得票数 9
2
回答
在
创建增量表
时
使用
Pyspark
Py4JJavaError
、
、
、
、
这是
在
jupyter笔记本上运行
的
pyspark
代码。import
pyspark
builder =
pyspark
.sql.SparkSession.builder.appName("MyApp") \:调用Py4JJavaError
时
出错:java.lang.IllegalAccessError: org.apache.spark.storage.StorageUtils$
类
(
在
未命名模
浏览 11
提问于2022-01-17
得票数 3
3
回答
如何将数组(即列表)列转换为向量
、
、
、
、
这个问题
的
简短
版本
!请参阅下面的详细信息(以及解决方案
的
尝试
失败)。或者,还有其他
的
手术能起到我想要
的
效果吗? )这个杂乱无章
的
问题
的
浏览 9
提问于2017-02-09
得票数 75
回答已采纳
2
回答
PySpark
JDBC Teradata连接
、
、
、
我
使用
spark-submit提交spark作业,并通过--jars标志指定要加载
的
Teradata JDBC驱动程序
的
最新
版本
(17.10.00.14)。日志确认JAR
文件
已成功添加。但是,
在
与Teradata建立连接
时
( option("url", url).此java.sql.SQLException由com.teradata.jdbc.jdbc_4库<em
浏览 136
提问于2021-07-15
得票数 0
回答已采纳
1
回答
我在运行sbt-Pro卫士
时
遇到了错误,它
的
运行框架为2.7.3
、
我在运行SBT-pro卫士
时
遇到了这个错误,它
的
运行框架为2.7.3。proguard) Proguard failed with exit code [1]它说
的
是问题--
不支持
的
类
版本
号。
浏览 4
提问于2019-10-24
得票数 0
1
回答
如何在Google Colab中更改Java
版本
?
、
、
我试图
在
Google colab上运行
pyspark
,它需要Java 8,但当我
在
Colab中查看java
版本
时
,它提供了: openjdk version "11.0.4" 2019-07-16 OpenJDK1ubuntu218.04.3) OpenJDK 64-Bit Server VM (build 11.0.4+11-post-Ubuntu-1ubuntu218.04.3, mixed mode) 我
尝试
使用
以下命令更改Java
版本
浏览 35
提问于2019-09-26
得票数 2
回答已采纳
2
回答
使用
IBMJava1.6.0和maven 3.3.3
的
UnsupportedClassVersionError
、
我有IBMJava1.6.0和maven 3.3.3
的
环境。 当我运行mvn干净安装
时
,会出现以下错误。
浏览 3
提问于2015-10-14
得票数 5
回答已采纳
3
回答
如何
使用
自定义Java
类
在
Cassandra中创建用户定义函数?
、
、
INPUTLANGUAGE java AS 'return MyClass.mymethod(custommap);'; 其中"MyClass“是我可以
在
类
路径中注册
的
类
浏览 2
提问于2017-04-27
得票数 5
2
回答
数据帧强制转换未引发溢出异常并生成null
、
、
from
pyspark
.sql.functions import *我试图将数据帧转换为df.column.cast(ShortType()),但当我
尝试
插入数据99999
时
,它正在转换为null而不会
抛出
任何错误,所以您能否建议
在
转换
时
抛出
错误
的
任何方法。
浏览 0
提问于2021-05-17
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark 3.0重磅发布!开发近两年,流、Python、SQL重大更新全面解读
Spark 2.4重磅发布:优化深度学习框架集成,提供更灵活的流式接收器
Spark 2.3重磅发布:欲与Flink争高下,引入持续流处理
Java异常体系
Python实现MaxCompute UDF/UDAF/UDTF
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券