首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >扫描的分区数(=32767)超出限制

扫描的分区数(=32767)超出限制
EN

Stack Overflow用户
提问于 2017-11-04 01:10:34
回答 1查看 913关注 0票数 0

我在试着用Eel-sdk把数据传输到蜂巢里。

代码语言:javascript
运行
复制
val sink = HiveSink(testDBName, testTableName)
.withPartitionStrategy(new DynamicPartitionStrategy)

val hiveOps:HiveOps = ...
val schema = new StructType(Vector(Field("name", StringType),Field("pk", StringType),Field("pk1",a StringType)))

hiveOps.createTable( 
  testDBName,
  testTableName,
  schema,
  partitionKeys = Seq("pk", "pk1"),
  dialect = ParquetHiveDialect(),
  tableType = TableType.EXTERNAL_TABLE,
  overwrite = true
)
val items = Seq.tabulate(100)(i => TestData(i.toString, "42", "apple"))
val ds = DataStream(items)
ds.to(sink)

获取错误:扫描的分区数(=32767)超过限制(=10000)。32767是2....but的一种力量,它仍然不能弄清楚哪里出了问题。有什么想法吗?

EN

回答 1

Stack Overflow用户

发布于 2020-12-01 13:25:27

Spark + Hive : Number of partitions scanned exceeds limit (=4000)

代码语言:javascript
运行
复制
--conf "spark.sql.hive.convertMetastoreOrc=false"
--conf "spark.sql.hive.metastorePartitionPruning=false"
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/47101085

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档