首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >星火DataFrame到ADW表:无法插入字符>4k的列

星火DataFrame到ADW表:无法插入字符>4k的列
EN

Stack Overflow用户
提问于 2019-11-21 12:12:27
回答 1查看 180关注 0票数 0

在DataBricks上,我拥有一个值为字符长度> 10,000的值的。

我需要将它插入Azure数据仓库(ADW)表中,但是如果列char长度超过4,000,则会出现错误。

错误:遇到意外错误,填充记录读取器缓冲区: HadoopSqlException: String或二进制数据将被截断。

代码语言:javascript
运行
复制
df.write.format("com.databricks.spark.sqldw") \
.option("url", sqlDwUrl) \
.option("forwardSparkAzureStorageCredentials", "true") \
.option("dbtable", writeTableName) \
.option("tempDir", tempDir) \
.mode("append") \
.option("maxStrLength",4000)\
.save()

要插入字符长度> 10k或20k的列,需要做什么?

EN

Stack Overflow用户

发布于 2019-11-21 17:34:26

当我们今天研究SQL数据仓库的容量限制时

代码语言:javascript
运行
复制
Bytes per Column - (depends on the column data type)
Limit is 8000 for char data types, 
4000 for nvarchar, or 2 GB for MAX data types.

因此,今天我们不可能摄入一列字符长度大于10k的字。该选项可能是将列数据拆分为摄取数据,并在需要时将这些列合并。

票数 0
EN
查看全部 1 条回答
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58974775

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档