腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4914)
视频
沙龙
1
回答
Spark
SQL
2.1
是否
支持
将
临时
表
或
hive
表
写入
Mysql
/
Oracle
?
我使用的是
Spark
SQL
2.1
, 我可以在
Spark
SQL
中以
临时
视图的形式从
mysql
/
oracle
中读取数据: val url = "jdbc:
mysql
://localhost:3306/db1"val pass = "root" s"
浏览 9
提问于2019-03-29
得票数 0
1
回答
spark
.
sql
()和
spark
.read.format("jdbc").option("query“、"")之间有什么区别?
、
、
、
我假设
spark
.
sql
(查询)是在使用
spark
.
sql
时使用的,而
spark
.read.format("jdbc").option("query“、"")则是在使用
oracle
语法时使用的。
浏览 3
提问于2021-08-16
得票数 3
回答已采纳
1
回答
使用
Spark
Scala更新
表
配置单元
、
、
我需要像这样update一个
表
蜂窝 set Col2 = B.Col2,Col3 = B.Col3, where A.Col1 = B.Col1 and A.Col2 <> B.Col2 使用Scala
Spark
浏览 20
提问于2017-08-30
得票数 0
1
回答
如何
将
DataFrame持久化到
Hive
表
?
、
、
、
"org.apache.
spark
" % "
spark
-
sql
_2.10" % "1.5.2"我
浏览 1
提问于2016-12-25
得票数 0
回答已采纳
2
回答
用
Oracle
表
创建SparkSQL jdbc联邦失败时出现了奇怪的错误
、
、
、
我正在尝试创建
hive
表
,它将指向
oracle
表
,但是它在org.apache.
spark
.
sql
.AnalysisException中失败了。步骤:
将
oracle
-db-connector.jar放在类路径中使用beeline连接到它 beelineTABLE
oracl
浏览 5
提问于2016-09-20
得票数 0
回答已采纳
2
回答
配置单元、
Spark
Sql
和Azure USQL中的
表
关系
、
、
有没有办法在
Hive
、
Spark
SQL
和Azure U
SQL
中维护
表
关系?其中
是否
支持
像
Oracle
或
SQL
Server中那样创建关系。在
oracle
中,我可以使用user_constraints
表
来获取关系。寻找与ML中的处理类似的东西。
浏览 2
提问于2017-11-17
得票数 0
3
回答
我可以加入
mysql
的蜂巢吗?
、
、
我可以连接
mysql
和
hive
(hdfs上的蜂窝)之间的
表
吗?A在
mysql
,b在hdfs上。 我怎么才能让它起作用?
浏览 3
提问于2014-12-17
得票数 0
回答已采纳
2
回答
通过sparkSQL创建蜂窝
、
、
、
我已经创建了一个
临时
表
,该
表
在列关键字上存储桶。但是,当我通过另一个
表
手动
将
数据插入到这个
表
中时,我看到了以00000_*为前缀的文件。我不确定<
浏览 1
提问于2018-08-02
得票数 5
2
回答
写入
HDFS
或
S3时
是否
锁定文件?
、
我有一个S3位置,目录结构如下,上面创建了一个
Hive
表
:假设我有一个
Spark
程序,它使用下面的代码行将数据
写入
上面的
表
位置,跨越多个分区: Df.write.partitionBy("orderdate").parquet("s3://<Mybucket>/<
浏览 0
提问于2018-03-19
得票数 11
1
回答
如何在
Spark
SQL
中使用快速压缩
将
数据
写入
hive
表
我有一个使用配置单元命令创建的兽人配置单元
表
create table orc1(line string) stored as orcfile 我想写一些数据到这个
表
使用
spark
sql
,我使用以下代码
hive
.exec.compress.output=true") SESSION.
sql
(=BLOCK") SE
浏览 44
提问于2019-03-02
得票数 1
1
回答
在Python中以编程方式启动HiveThriftServer
、
、
、
、
在
spark
-shell (scala)中,我们将为特定配置单元上下文以编程方式启动
Hive
Thrift服务器的org.apache.
spark
.
sql
.
hive
.thriftserver._作为HiveThriftServer2.startWithContext(hiveContext)导入,以公开该特定会话的已注册
临时
表
。 我们如何使用python来做同样的事情呢?
浏览 0
提问于2016-04-15
得票数 3
1
回答
Apache
Spark
2.3.1 - pyspark.
sql
.SparkSession.builder.enableHiveSupport()是必要的吗?
、
、
我对
Hive
的理解是,它提供了一种使用
SQL
命令查询HDFS的方法。输入
Spark
SQL
。既然我可以使用
Spark
SQL
通过
SQL
查询我的数据库,那么为什么
Hive
会进入这个画面呢?, support for
Hive
serdes, and
Hive
u
浏览 1
提问于2018-08-16
得票数 0
3
回答
读取配置单元元数据选项
、
、
我想要捕获
表
和相关元数据的列表(如列,不。所有数据库中的行等)。我正在寻找的是某种类型的脚本,我可以将其提交给任何人,任何人都可以运行它,并通过将其
写入
文件来为我提供输出。一种方法是编写一个mapreduce程序,该程序
将
连接到
hive
并提取此信息。 另一种方法是以某种方式遍历表列表并获取此信息。对于RDBMS,我只需在系统目录
表
上编写一个
SQL
查询就可以做到这一点。
浏览 4
提问于2016-03-29
得票数 0
4
回答
用星星之火覆盖蜂窝分区
、
、
、
、
我正在使用AWS,我有使用
Spark
和
Hive
的工作流。我的数据是按日期划分的,所以每天我在S3存储中都有一个新的分区。我的问题是,当有一天加载数据失败时,我必须重新执行该分区。如果我使用SaveMode.Overwrite,完整的
表
将被删除,并且只保存分区。如果我使用SaveMode.Append,我可能有重复的数据。通过搜索,我发现
Hive
支持
这种覆盖,只
支持
分区,但是使用hql语句,我没有它。 我们需要
Hive
上的解决方案,所以我们不能使用这个 (直接到csv)。
浏览 2
提问于2018-04-23
得票数 11
回答已采纳
1
回答
运行示例时出错
、
、
、
这就是我要做的: import org.apache.
spark
.
sql
.Encoders; import org.apache.
spark
.
sql
.Ro
浏览 2
提问于2017-12-18
得票数 1
回答已采纳
1
回答
如何在三角洲湖进行createOrReplaceTempView?
、
我会将数据从拼图加载到火花数据,并使用df.CreateOrReplaceTempView("TableName")创建一个
临时
表
,这样我就可以使用
spark
或
%
SQL
魔术来执行ETL了。这样做之后,我可以在
spark
.
sql
或
%%
sql
上使用TableName。当我做完了,我会write我的桌子到蜂巢亚稳态。但是,如果我不想执行这个saveAsTable操作并
写入
我的数据湖,该怎么办?使用<e
浏览 6
提问于2022-09-08
得票数 0
回答已采纳
1
回答
在HDFS上
写入
数据需要很长时间
在HDFS上
写入
文件创建多个零件文件(200)并花费很长时间 我正在
将
配置单元
表
(使用SqlContext.
sql
)加载到数据帧1(6K记录)并注册到
临时
表
。我
将
临时
表
与另一个配置单元
表
(500万条记录)连接在一起,并加载到dataframe 2中。我使用左外部连接更新dataframe 1和dataframe 2的值,并尝试
将
dataframe_1(6K记录)
写入
HDFS文件,这
浏览 71
提问于2019-05-18
得票数 2
1
回答
registerTempTable()不注册所有记录
、
、
、
、
我尝试创建一个函数,从关系数据库中获取数据并将它们插入
Hive
表
中。由于我使用
Spark
1.6,所以需要注册一个
临时
表
,因为
将
数据直接
写入
Hive
表
不是sc = SparkContext(conf=
spark
_conf一个文件,在两个小时后创建 因此,当我尝试在作业完成后从
Hive
表
中进行选择时,就会有丢
浏览 6
提问于2018-03-05
得票数 0
4
回答
通过Th深层服务器访问
Spark
表
、
我已经用
Spark
注册了一个
临时
表
,如中所述// I can run queries on it all right.现在我想通过JDBC远程访问这个
表
。/sbin/st
浏览 5
提问于2014-11-24
得票数 19
回答已采纳
11
回答
如何
将
DataFrame直接保存到
Hive
?
、
、
、
有没有可能将
spark
中的DataFrame直接保存到
Hive
? 我尝试过
将
DataFrame转换为Rdd,然后保存为文本文件,然后加载到
hive
中。但是我想知道我能不能直接把dataframe保存到
hive
浏览 1
提问于2015-06-05
得票数 93
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券