腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(166)
视频
沙龙
0
回答
org.apache.spark.sql.AnalysisException
:
无法
解析
给定
的
输
入列
'
ph.pharmacy_id
‘:[];
第
1行
位置
、
、
我在hive中有一个名为PHAR
的
表。当我试图通过spark-submit(Spark version 1.6)创建一个视图/表时,我得到了下面的错误。User class threw exception:
org.apache.spark.sql.AnalysisException
: cannot resolve '
ph.pharmacy_id
' giveninput columns: []; line 1 pos create view if not exis
浏览 2
提问于2017-06-16
得票数 0
1
回答
在spark sql中选择除特定列之外
的
所有列
、
、
、
我想选择表中除StudentAddress之外
的
所有列,因此我编写了以下查询: select `(StudentAddress)?
org.apache.spark.sql.AnalysisException
:
无法
解析
给定
的
输
入列
的
“”(StudentAddress)?+.+“”
浏览 45
提问于2017-04-27
得票数 3
回答已采纳
1
回答
AWS Glue -从目录而不是数据源头派生模式
、
、
我已经在AWS目录中创建了一个指向S3
位置
的
表。我正在使用AWS读取S3
位置
中
的
任何新文件。数据文件将有第一个记录作为头文件。但是,在某些情况下,S3中有一个空文件正在删除,没有数据,也没有头文件。由于文件也没有任何头部信息,这将导致我
的
ETL作业失败,说“
无法
解决
给定
的
输
入列
”。 我
的
问题是,是否有一种方法可以不从文件头读取模式,而只从AWS Glue目录读取模式。我已经在目录中定义了模式。datasource1D
浏览 0
提问于2020-03-25
得票数 1
1
回答
如何引用星火sql查询中
的
映射列?
、
、
-++--------------------+
org.apache.spark.sql.AnalysisException
:
无法
解析
给定
的
输
入列
“map1”:[];
第
1行pos 18;“项目未
解析
别名”(element_at(‘map1,p1)
浏览 8
提问于2020-09-28
得票数 1
回答已采纳
1
回答
SparkSQL -如何重用先前选定
的
值
、
、
我需要第一个UDF (GetOtherTriggers)
的
值作为第二个UDF (GetTriggerType)
的
参数。GetOtherTriggers(categories) as other_triggers, GetTriggerType(other_triggers) from my_table") 返回以下异常:
org.apache.spark.sql.AnalysisException
:
无法
解析
给定
的
输
入列
: my_table列;
浏览 3
提问于2017-03-20
得票数 0
回答已采纳
1
回答
如何在火花中将byte[] of List<Objects>解码为Dataset<Row>?
、
、
、
、
我在我
的
项目中使用了火花-SQL2.3.1v,带有java8
的
kafka。我正试图在卡夫卡消费端将接收到
的
主题转换为数据集。(companySchema , false),false)我使用序列化将消息以byte[]
的
形式发送到true) Dataset<Company> comapanyDs = comapanyListDs.as(Encoders.bean(Company.c
浏览 2
提问于2020-02-07
得票数 0
回答已采纳
2
回答
使用句点访问列名-SparkSQL1.3
、
我有一个包含句点
的
字段
的
DataFrame。当我试图对它们使用select()时,星火
无法
解决它们,很可能是因为‘。用于访问嵌套字段。以下是错误: enrichData.select(" google.com ")
org.apache.spark.sql.AnalysisException
:
无法
解析
给定
的
输
入列
google.com或者一种更改列名
的
简单方法(因为我
无法
选择它们
浏览 2
提问于2015-05-20
得票数 1
1
回答
我如何才能在DataFrame in PySpark中按总和订购?
、
、
::
org.apache.spark.sql.AnalysisException
:
无法
解析
给定
输
入列
order_item_order_id,SUM(order_item_subtotal#429)
的
“SUMorder_item_order_id").sum("order_item_subtotal").orderBy(desc("SUM(order_item_subtotal)")).show() 但我也有同样
的
错误::
浏览 1
提问于2015-12-21
得票数 4
1
回答
如何使用流查询处理Kafka
的
Scala case类对象?
、
、
", "earliest") .select("value") 我知道错误了 线程"main“中
的
异常
org.apache.spark.sql.AnalysisException
:
无法
解析
给定
的
输
入列
:id;
浏览 0
提问于2019-11-01
得票数 1
回答已采纳
1
回答
用向后兼容模式读取星火中
的
旧数据
、
、
、
我已经将一些较旧
的
数据存储在带有模式
的
parquet中。每次我尝试用spark.read.parquet("test_path").as[B].collect()读取数据时,我都会得到以下异常: 是否有方法为我
的
所有数据指定一个向后兼容
的
浏览 0
提问于2017-11-07
得票数 2
回答已采纳
1
回答
在标头中用点裁剪数据帧值
、
我正在读取一个具有“标题”
的
输入文件。‘点为DataFrame。我正面临问题,试图修剪在该文件中
的
值。`"))).show()如果我试图执行上述代码,我将得到
无法
解析
“col.2”
给定
的
输
入列
col1、col。2,col3;
org.apache.spark.sql.Ana
浏览 1
提问于2016-12-20
得票数 0
2
回答
org.apache.spark.sql.AnalysisException
:
无法
解析
给定
的
输
入列
、
、
、
、
exiturl", sum("session"), sum("sessionfirst"), first("date")) .take(500)
org.apache.spark.sql.AnalysisException
浏览 36
提问于2017-05-10
得票数 8
回答已采纳
3
回答
org.apache.spark.sql.AnalysisException
:
无法
解析
给定
的
输
入列
、
、
当运行我
的
Spark作业时,它失败并给出以下异常:当SparkSQL尝试
解析
以下内容时,会抛出上述异常: IF(action = 'A', 1, 0) a_coun
浏览 2
提问于2016-10-05
得票数 3
1
回答
Dataframe左外连接在火花中不能正常工作
、
、
clusterDF.join(df, col("clusterDF.cluster_id") === col("df.cluster_id"), "left" )
org.apache.spark.sql.AnalysisException
浏览 0
提问于2018-03-22
得票数 0
回答已采纳
1
回答
使PySpark数据中
的
“不可用列”为零。
、
、
、
、
这是我
的
密码:在旋转之后,parameter_cut中
的
某些列可能在df fd_orion_apps上不可用,它将给出如下错误: Py4JJavaError:
org.apache.spark.sql.A
浏览 2
提问于2022-07-10
得票数 1
回答已采纳
1
回答
有点复杂
的
PySpark选择和聚合查询
、
我有一个具有以下数据类型
的
pyspark:[('TransactionDate', 'timestamp'), ('GroupByFld', 'int'), ('Amount('AdjustedTransactionDate'),max('AdjustedTransactionDate'), GroupByFld, sum('Amount') 我想我可以使用thought
的
d
浏览 0
提问于2019-01-03
得票数 0
1
回答
阿格。在星火中使用过滤器和组块
、
、
、
但是,在执行我
的
代码时,我得到
的
“
无法
解析
”
给定
的
输
入列
“flag”: (1, 111,100,100,"C","5th","Y",11),.select("id", "rollno", "sub1&quo
浏览 1
提问于2021-01-20
得票数 0
回答已采纳
2
回答
使用带有选项字段
的
case类将数据转换为数据集
、
、
、
lastname: Option[String] = None, age: BigInt) {}{ "name": "bemjamin", "age" : 1 }spark.read.json("example.json")它显示了以下错误: 线程“主”
org.apache.spark.sql.AnalysisException
中
的
异常:
无法</em
浏览 0
提问于2019-03-12
得票数 6
回答已采纳
1
回答
添加一个新列来激发数组列表中
的
数据
、
来源= source.withColumn("newcolumn",sha2(col(Word),256).cast(StringType))预期
的
输出应该是一个以newcolum作为列名
的
dataf
浏览 3
提问于2020-04-21
得票数 1
回答已采纳
1
回答
如何从日期字符串中提取年份?
、
、
我用
的
是火花2.1.2。import org.apache.spark.sql.functions._import org.apache.spark.sql.typesunix_timestamp(mydf("date"),"MM/dd/yy").cast(TimestampType)) select_df.select(year($&q
浏览 0
提问于2019-07-18
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
2018年07月份沪牌竞拍回顾
文心一言 VS 讯飞星火 VS chatgpt (86)-- 算法导论8.2 3题
【每日一算法】全排列问题
生物信息-python 编程实例(1)
视频批量剪辑方法:提升视频制作效率,一键视频合并的详细步骤
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券