腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
Spark
/
Hive
SQL
中
的
DESCRIBE
TABLE
获得
完整
的
data_type
?
、
、
、
、
在
Spark
/
Hive
SQL
中
,我们可以
使用
DESCRIBE
TABLE
table
_name来获取表
的
模式。但是,如果
data_type
太长,
data_type
列可能不会返回
完整
类型。有没有办法
使用
Spark
/
Hive
SQL
获取
完整
的
列数据类型?
浏览 28
提问于2021-03-10
得票数 0
2
回答
如何
在
使用
pyspark时访问
hive
表
中
的
注释?
、
当我
使用
pyspark连接到
hive
时,我想获取表
的
注释,我
使用
了"
DESCRIBE
table
table
_name",但它不起作用jdbcDF =
spark
.read \ .format("
浏览 38
提问于2019-07-16
得票数 0
1
回答
在
Hive
表上创建视图:每个变量
的
注释丢失
、
、
、
我创建了一个
Hive
表,我们在每个变量
的
“注释”字段
中
添加了一些描述,如下所示:
spark
.
sql
("
describe
tes
浏览 1
提问于2018-03-07
得票数 1
回答已采纳
3
回答
如何
在
spark
SQL
中
获取列
的
数据类型?
、
、
我想找出表
中
每一列
的
数据类型。例如,假设我
的
表是
使用
以下命令创建
的
:(col2 int,)column datatype最好是在SparkSQL
中
。但是,如果不是,那么
如何
使用
另一种方式获取这些数据呢?我
使用
spark
sql
来查询
hive</em
浏览 0
提问于2016-03-18
得票数 0
2
回答
如何
将saveAsTable转换为
Hive
(使
Hive
表为MANAGED_
TABLE
)?
、
、
、
当我尝试在没有显式路径
的
情况下保存表时,hivemetastore将有一个虚假
的
" path“属性,指向”/user/
hive
/仓库“而不是”/
hive
/仓库“。如果我
使用
.option(" path“、”/
Hive
/仓库“)显式地将路径设置为我想要
的
,那么一切都正常,但是
Hive
创建了一个外部表。/warehouse").saveAsTa
浏览 3
提问于2017-03-10
得票数 1
回答已采纳
2
回答
Azure存储帐户中储存
的
蜂箱表在哪里?
、
、
、
如果我
使用
Hive
创建一个表,那么表本身存储在Azure存储帐户
中
的
位置呢? 我
的
意图是,我想复制表和亚稳态,以复制它。
浏览 2
提问于2020-05-08
得票数 1
回答已采纳
1
回答
kerberized环境
中
的
Spark
和启用
的
高可用性:
Spark
只能在写入任务后读取数据
、
、
、
我们
使用
了一个kerberized环境(HDP 3.1.4与
Spark
2.3.2和Ambari2.7.4),很长一段时间以来,一切都进行得很顺利。现在,我们启用了NameNode高可用性,并存在以下问题:当我们想要
使用
Spark
读取数据时,我们首先必须编写一些(其他)数据。如果我们在读操作之前不写东西,它就会失败。在这里,我们
的
场景:$
spark</em
浏览 6
提问于2020-04-22
得票数 0
1
回答
当分区列倾斜时,更高效地写入分区拼图
、
、
、
我正在编写一个大表(大约1.2b行),我
使用
state (如US state)作为分区键。问题是有大量
的
空状态值。这个表通常是按状态查询
的
,所以有一个包含空状态
的
大分区不是问题,但是我在更有效地生成表时遇到了问题。我尝试创建具有非null状态
的
表,然后插入null,但从我所能断定
的
情况来看,所有NULL值仍然被放在一个大分区
中
,因此被发送到一个工作进程。 如果有一种方法可以插入到特定
的
分区
中
,那就太好了。就像我
的
示例
浏览 17
提问于2019-07-11
得票数 0
2
回答
HDP 3.0不能保存表格以保存细胞亚稳态
、
、
、
我
使用
spark
.
sql
看到了
spark
中
的
表,但在
hive
数据库中看不到相同
的
表。我试过这个,但它并不是为了储存蜂巢而储存
的
。我
如何
配置蜂巢亚稳态?火花版本为2.3.1。
table
if exists my_
table
");
spark
.
sql
("create
table
my_
table
浏览 2
提问于2018-11-15
得票数 1
回答已采纳
6
回答
如何
使用
星火对象获取
Hive
表
的
位置值?
、
、
我感兴趣
的
是能够检索给定
Spark
()
的
Hive
表
的
值。
获得
此值
的
一种方法是通过以下
SQL
查询解析位置
的
输出:我想知道是否有另一种方法可以
获得
位置值,而不必解析输出。如果上述命令
的
输出在
Hive
版本之间发生变化,API将是很好
的
。如果需要外部依赖,会
浏览 4
提问于2019-01-06
得票数 11
回答已采纳
1
回答
描述火花表/视图注释
、
、
我们可以创建一个表并
使用
描述它
的
注释来查看它。TBLPROPERTIES ('foo'='bar');
DESCRIBE
student
DESCRIBE
E
浏览 6
提问于2022-06-15
得票数 1
4
回答
Scala/
Spark
确定外部表
的
路径
、
、
我在gs桶上有一个外部表,为了执行一些压缩逻辑,我想确定创建表
的
完整
路径。primaryKey="key"val datePartition="dt" val compactionTabl
浏览 0
提问于2019-03-08
得票数 1
回答已采纳
1
回答
在
Spark
SQL
中
查找表大小( MB/GB)
、
、
、
首先,请允许我先说一句,我对
Spark
-
SQL
非常陌生。我正在尝试理解
Spark
-
Sql
中
的
各种连接类型和策略,我希望能够了解一种近似表大小(参与连接、聚合等)
的
方法,以便通过了解幕后实际发生
的
事情来估计/调整预期
的
执行时间,以帮助我选择最适合该场景
的
连接策略(在
Spark
-
SQL
中
通过提示等)。
SQL
查询。注意:我没有访问PySpar
浏览 106
提问于2020-06-10
得票数 2
2
回答
数据源表不支持加载数据。
、
、
、
对于亚行来说,我是新手,我试图
使用
parquet文件将数据加载到databricks
中
的
一个表
中
,并发出以下命令:但是它抛出
的
错误如下:
SQL
语句中
的
错误: AnalysisException:数据源表不支持加载数据:d
浏览 2
提问于2020-12-29
得票数 2
回答已采纳
1
回答
为Databricks生成数据库模式图
、
、
、
有什么方法可以为Databricks数据库生成模式图(类似于从mysql生成
的
模式图)?
浏览 0
提问于2020-09-07
得票数 2
4
回答
如何
在不
使用
HDP 3.1
中
的
仓库连接器
的
情况下从
spark
编写一个表
、
、
、
、
当尝试
使用
HDP 3.1上
的
spark
2.3写入没有仓库连接器
的
Hive
表时,可以
使用
以下方法直接写入蜂窝模式:
spark
.
sql
("select * from foo.my_
table
_02").show
的
火花工作得很好。USER, writeId:-1) |
浏览 10
提问于2019-10-16
得票数 2
2
回答
org.apache.
spark
.
sql
.AnalysisException:在向
Hive
表
中
插入数据时找不到表
、
、
、
我正在尝试
使用
以下代码将dataframe插入到
Hive
表
中
:import org.apache.
spark
.
sql
._val empfile = sc.textFile("com
浏览 6
提问于2017-07-03
得票数 0
回答已采纳
2
回答
Spark
忽略TBLPROPERTIES中指定
的
parquet.compression属性
、
、
我需要从
Spark
创建一个
Hive
表,该表将采用拼花格式和快速压缩。下面的代码以拼花格式创建表,但
使用
GZIP压缩:但在色调"Meta
浏览 3
提问于2016-04-29
得票数 4
回答已采纳
2
回答
如何
使用
Java获取在TextInput/OutputFormat
中
创建
的
hive
表
的
模式
、
、
如果它是avro、orc或parquet表,我可以
使用
相应
的
库来获取模式。但是,如果输入/输出格式是TXT,并且数据存储在csv文件
中
,我
如何
获得
模式programatically? 谢谢,
浏览 0
提问于2019-03-15
得票数 0
1
回答
Spark
SQL
-确定架构时出现运行时异常
、
、
、
我正在尝试从我
的
笔记本电脑查询远程(本地)配置单元数据库
中
的
表。我
使用
的
是
spark
sql
。我能够连接到它并检索最新
的
分区。我尝试
使用
describe
table
命令并尝试打印模式 Dataset<Row> descTable =
spark
.
sql
("desc db.tablename"); descTable.printS
浏览 116
提问于2019-10-09
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券