腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
hive外部hive
表
创建空的数据帧?
scala
、
apache-spark
我正在
使用
下面的内容创建一个
使用
hive外部
表
的dataframe (
spark
scala
)。但数据帧也在其中加载了数据。我需要一个
使用
配置
单元
外部
表
的模式创建的空DF。我
使用
spark
scala
来解决这个问题。 val table1 = sqlContext.table("db.table") 如何
使用
配置
单元<
浏览 20
提问于2019-10-16
得票数 1
1
回答
使用
Spark
Scala
更新
表
配置
单元
scala
、
apache-spark
、
rdd
我需要像这样update一个
表
蜂窝 set Col2 = B.Col2,= B.DT, Col4 = B.Col4
使用
Scala
Spark
RDD 我该怎么做呢?
浏览 20
提问于2017-08-30
得票数 0
1
回答
如何
使用
`.saveAsTable()`将查询结果保存到Dataproc集群中的Hive
表
中?
scala
、
apache-spark
、
google-cloud-platform
、
hive
、
google-cloud-dataproc
我有一个查询结果,我试图将其写入GCP上的Hive
表
,并指向GCS bucket path,但当我执行saveAsTable()方法时,它失败了,错误如下。$1.apply(SparkPlan.
scala
:155)org.apache.
spark
.sql.DataFrameWriter.runC
浏览 0
提问于2020-10-13
得票数 2
2
回答
在
Spark
中,CREATE table命令是否创建外部
表
?
jdbc
、
apache-spark
、
hive
、
external-tables
基于GitHub ()中的以下线程,我理解CREATE TABLE + Options (如JDBC),将创建一个
配置
单元
外部
表
?这些类型的
表
不会实现自身,因此当通过SQL删除该
表
或从Databricks tables UI中删除该
表
时,不会丢失数据。
浏览 2
提问于2016-04-29
得票数 2
1
回答
将
配置
单元
表
卸载到。
使用
Spark
或pyspark或python的dat文件
python
、
pyspark
、
apache-spark-sql
、
hiveql
我目前正在
使用
hql将数据从
配置
单元
表
卸载到文本文件中。因为它花费了太多的时间。我想去
spark
或pyspark.I。我是
spark
/ please的新手。你能帮我解决这个问题吗?我正在
使用
下面的查询来卸载 beeline --outputformat=dsv --silent=true - e 'select * from <tablename>' > /dir/samplefile.txt
浏览 11
提问于2019-10-04
得票数 0
1
回答
无法在本地创建
表
,需要获取
配置
单元
支持
scala
、
apache-spark
、
hive
、
scalatest
即使在设置
配置
后仍出现错误 .getOrCreate()编辑: 这就是我如何设置用于测试的本地数据库和
表
。TABLE .,") cmd时,出现以下错误: error:需要
配置
单元
支持才能创建
配置
单元</
浏览 2
提问于2019-08-12
得票数 0
3
回答
如何
使用
Spark
SQL
Scala
API(非SQL)检查
配置
单元
表
是否为外部
表
apache-spark
我
使用
以下代码(
Spark
SQL
Scala
API)来检查Hive
表
是否为外部
表
,但Table API没有方法来回答给定
表
是否为外部
表
。我会问如何
使用
Spark
SQL
Scala
API(而不是SQL)检查
配置
单元
表
是否为外部
表
val
spark
= SparkSession.builder().master(
浏览 22
提问于2019-11-06
得票数 1
回答已采纳
1
回答
在
spark
中
使用
配置
单元
数据库
apache-spark
、
hive
、
apache-spark-sql
、
hortonworks-sandbox
我是
spark
的新手,正在尝试
使用
HortonWorks沙盒在tpcds基准
表
上运行一些查询。在沙箱上通过外壳或
配置
单元
视图
使用
配置
单元
时没有问题。问题是,如果我想
使用
spark
,我不知道如何连接到数据库。如何
使用
spark
中的
配置
单元
数据库来运行查询?到目前为止,我所知道的唯一解决方案是手动重建每个
表
,并
使用
浏览 4
提问于2016-08-04
得票数 2
1
回答
spark
查询执行时间
scala
、
apache-spark
、
apache-spark-sql
我安装了本地hadoop单节点和
配置
单元
,并将一些
配置
单元
表
存储在hdfs中。然后,我
使用
MySQL元存储区
配置
配置
单元
。现在我安装了
spark
,我正在对hive
表
进行一些查询,就像这样(在
scala
中):result = hiveCo
浏览 2
提问于2016-04-04
得票数 2
1
回答
如何从Apache
Spark
on Analytics Engine读取和写入
配置
单元
表
ibm-cloud
、
watson-studio
、
analytics-engine
我想在Watson Studio中的Jupyter笔记本上
使用
Spark
on analytics engine,以便能够读取和写入Hive
表
,但我不清楚如何通过读取
Spark
来做到这一点。不清楚的原因是IBM Analytics Engine预
配置
了
Spark
,并且不提供root访问权限。我在网上找到了一些generic hadoop的帖子,描述了如何
使用
元存储位置创建hive.xml,但不清楚如何将其转换到IBM Analytics Engine环境中。例如:
浏览 27
提问于2018-06-02
得票数 0
回答已采纳
3
回答
createOrReplaceTempView在
Spark
中是如何工作的?
apache-spark
、
apache-spark-sql
、
spark-dataframe
我是
Spark
和
Spark
SQL的新手。如果我们将对象的RDD注册为
表
,
spark
会将所有数据保存在内存中吗?
浏览 87
提问于2017-05-17
得票数 74
回答已采纳
1
回答
spark
.table失败,返回java.io.Exception:没有适用于方案的FileSystem : abfs
apache-spark
、
apache-spark-sql
已在此数据上创建了外部
配置
单元
表
。现在,我尝试
使用
spark
.table('testingCustomFileSystem')将相同的
表
加载到
spark
dataframe中,它将抛出以下异常 at org.apache.
spark
.sql.execution.datasour
浏览 0
提问于2019-04-30
得票数 6
2
回答
为事务启用的
配置
单元
存储区
表
apache-spark
、
hive
、
transactional
、
orc
因此,我们尝试
使用
以下语句创建一个ORC格式的Hive
表
,并为事务设置存储桶并启用该
表
该
表
是在Hive中创建的,并且还反映在Metastore和
Spark
SQL(我们已
配置
为
浏览 1
提问于2015-11-23
得票数 2
3
回答
应如何
配置
spark
sql以访问
配置
单元
元存储?
apache-spark
、
hive
、
apache-spark-sql
、
cloudera
我正在尝试
使用
Spark
SQL从Hive元存储中读取一个
表
,但
Spark
给出了一个关于
表
未找到的错误。我担心
Spark
SQL会创建一个全新的空转储。/hive-site.xml2015-06-30 17:50:51,570 INF
浏览 6
提问于2015-07-01
得票数 4
2
回答
外部
配置
单元
表
刷新
表
与MSCK修复
apache-spark
、
hive
、
hivecontext
、
hive-partitions
我有一个外部蜂窝
表
,存储为Parquet,分区在一个列上,比如as_of_dt,数据通过
spark
streaming插入。现在,每天都会添加新的分区。我正在执行msck repair table,以便
配置
单元
元存储获得新添加的分区信息。这是唯一的办法,还是有更好的办法?我担心如果下游用户查询
表
,msck repair是否会导致数据不可用或数据陈旧的问题?我正在浏览HiveContext应用程序接口并查看refreshTable选项。
浏览 8
提问于2018-08-07
得票数 13
2
回答
如何
使用
Scala
更新
ORC蜂巢
表
scala
、
apache-spark
、
apache-spark-sql
、
hiveql
、
hivecontext
我想
更新
一个以orc格式的hive
表
,我可以从我的ambari hive视图中进行
更新
,但是无法从sacla运行相同的update语句(星火壳)。),因为我可以从Ambari视图进行
更新
(因为我设置了所有必需的
配置
,即TBLPROPERTIES "orc.compress"="NONE”事务性true等)。试着用Insert进入case语句,但是我们不能从
spark
中
更新
单元
ORC
表
吗?如果是的话,程序是
浏览 0
提问于2015-12-30
得票数 5
回答已采纳
1
回答
Spark
2.4.0中
使用
spark
.sql的
配置
单元
表
锁信息抛出错误
apache-spark
、
hive
、
apache-spark-sql
无法
使用
Spark
2.4.0 shell中的以下SQL查询查询
配置
单元
表
锁信息。
spark
.sql("show locks dbName.tableName")
scala
>
spark
.sql("show locks dbName.tableName") org.apache.
spark
.sql.catalyst.parser.ParseException$1.appl
浏览 5
提问于2019-10-04
得票数 3
2
回答
从
Scala
中检索
Spark
DataFrame
scala
、
apache-spark
、
apache-spark-sql
我有一个来自
Scala
的DataFrame输出进入其中。我正在寻找从它找回火花DataFrame。 我在databricks中有一个Azure SQL连接,我
使用
scala
进行连接。它为我提供了一个以下
Scala
格式的
Spark
DataFrame,我是新手,有人能帮我找回它吗?这样我就可以将它保存为
配置
单元
表
我的
scala
代码的结果: outputData: Either[org.apache.
spark
.sql
浏览 13
提问于2019-10-17
得票数 0
回答已采纳
1
回答
CLI中的
scala
/
spark
脚本
bigdata
、
sqoop
我在unix cli中运行
scala
_script.
scala
,得到的错误是:enycription key missing,而同样的
scala
代码在
spark
-shell中运行良好。代码用于访问
配置
单元
表
,将其加载到dataframe中,处理一些转换,然后再次执行:write.mode("append/overwrite").saveAsTable("my_db.my_table"代码为: import org.apa
浏览 3
提问于2018-05-08
得票数 0
1
回答
配置
单元
元存储中的上次访问时间
更新
apache-spark
、
pyspark
、
hive
、
apache-spark-sql
我在
配置
单元
控制台/ .hiverc文件中
使用
了以下属性,以便每当我查询该
表
时,它都会
更新
配置
单元
元存储的TBLS
表
中的LAST_ACCESS_TIME列。set hive.exec.pre.hooks = org.apache.hadoop.hive.ql.hooks.UpdateInputAccessTimeHook$PreExec; 但是,如果我
使用
spark
-sql或
spark
-s
浏览 1
提问于2020-02-25
得票数 5
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券