引擎内核动态

最近更新时间:2025-12-09 17:09:42

我的收藏
您可以通过引擎详细页面的内核管理根据操作时间可以判断当前所属版本(或者查看当前引擎的详细版本),辅助您判断当前引擎是否支持哪些功能,或者存在哪些已经发现的风险点。




DLC 标准引擎1.1-Spark 3.5与社区 Spark SQL 语法的兼容性

DLC 标准引擎基于 Spark3.5拓展,相比社区 Spark 3.5,在 SQL 语法上有以下差异。
类别
SQL
DLC Standard-S 1.1
社区 Spark
语法
Alter TABLE Drop Partition (partition spec)
支持通过表达式删除符合条件的 partition
例如 partition(dt > 20251205)
支持删除指定的 partition
例如 partition(dt = 20251205)
Select * Except From
支持通过 Except 排除星号中的部分列
例如 select * except (id) from table
不支持
create table ...
create table ... as select
默认创建 Iceberg 内表
默认创建 text 表
函数
max_pt, isdate, datamask_default, datamask_replace, map_union_sum, trans_cols, trans_array, cluster_sample_random, cluster_sample, sample, any_match, get_idcard_age, get_idcard_sex, get_idcard_birthday
新增
不支持
regexp_instr
regexp_instr(str, regexp[, startPosition, occurrence, return_option])
regexp_instr(str, regexp)
regexp_substr
regexp_substr(str, regexp[, startPosition, occurrence])
regexp_substr(str, regexp)
datediff/date_diff
datediff(endDate, startDate[, datePattern])
datediff(PATTERN, endDate, startDate)
datediff(endDate, startDate)
datediff(PATTERN, endDate, startDate)
dateadd/timestamp_add
dateadd(timestamp, delta[, date_part])
timestamp_add(timestamp, delta[, date_part])
dateadd(start_date, num_days)
greatest/least
(需要 session 级设置spark.sql.extensions.greatestAndLeastImplicitDataType=true)
支持输入类型不同
DOUBLE、BIGINT、STRING 之间的比较会转换为 DOUBLE 类型。
DECIMAL、DOUBLE、BIGINT 和 STRING 之间的比较会转换为 DECIMAL 类型。
STRING、DATE、TIMESTAMP 的比较会转换为 TIMESTAMP 类型
输入类型需要完全相同

SuperSQL 1.0 vs SuperSQL 3.5 或 Spark 3.2 vs Spark 3.5兼容性

为了方便您评估从 SuperSQL 1.0 升级到 SuperSQL 3.5,或者从 Spark 3.2 升级到 Spark 3.5,这里整理了两个版本之间目前已知的一些可能影响较大的差异点,方便您评估是否可以平滑升级。
可以参考 Spark3.2 升级到 Spark3.5.1 的详细差异:https://spark.apache.org/docs/latest/sql-migration-guide.html
类别
差异点
SuperSQL 1.0 / Spark 3.2
SuperSQL 3.5 / Spark 3.5
社区行为解释
SQL 算子
涉及到 sort 相关的算子,例如 order by
2023年10月及以前版本默认为 nulls last
2023年11月及以后版本默认为 nulls first
默认为 nulls first
2024年8月及以后的版本支持通过参数配置
配置项:spark.dlc.extensions.scope=null_order_rules,functions(2024年10月后可不配置该选项)。开启 null_order 可配置
spark.sql.defaultSortNullOrdering=nullLast 或 nullFirst 指定 null 顺序
社区行为 nulls first
Limit 算子
1. 数据扫描量随 Limit N 数量的增加而增加,例如 select * from TABLE limit N。
2. 不支持 limit offset。
1. 数据扫描量固定为全表扫描,不会随着 Limit N 数量的增加而增加,例如 select * from TABLE limit N。
2. 支持 limit offset。
社区行为。3.2会在 Plan 解析阶段就获取 BatchScan 的 partition信息,这对 DSV2 其他的列式数据源是不友好的,且 limit 数据量较大时性能较差。
SQL 函数
to_char 函数
2023年12月及以前版本不支持
2023年12月及以后版本支持数字格式转换,拓展了时间格式转换(即date_format 函数功能)
支持数字格式转换,拓展了时间格式转换。可修改spark.dlc.extensions.scope=functions(默认开启)为 none 使用社区函数。
社区仅支持数字格式转换
date_diff 函数
DLC 自定义实现,使用格式为 datediff(timestamp|date start, timestamp|date end, [string unit]),其中 unit 默认为 dd,可选 hh、MM 等格式。
有两种实现的语法:
社区实现 datediff(TimeUnit unit, timestamp|date start, timestamp|date end)。除了参数顺序不一致,unit 需为 HOUR 等新增的语法类型。
DLC 自定义实现 datediff(timestamp|date start, timestamp|date end)。由于社区行为覆盖,导致 datediff 仅支持两段式的日期加减。
社区新增函数与 DLC 原有的格式语义不一致。
dateadd 函数
DLC自定义实现,使用格式为dateadd(timestamp|date input, int delta, [string unit])
其中,unit可选为hh、MM等格式。
有两种实现的语法:
社区实现 dateadd(TimeUnit unit, int delta, timestamp|date input)。除了参数顺序不一致,unit 需为 HOUR 等新增的语法类型。
DLC 自定义实现dateadd(timestamp|date input, int delta)。由于社区行为覆盖,导致 dateadd 仅支持两段式的日期加减。
社区新增函数与 DLC 原有的格式语义不一致。
读写文件
CSV 文件保存(包括 SQL 查询结果保存)
CSV 可以支持 Binary 类型的数据写入,但是写进去其实无法读取
CSV 不再支持 Binary 类型的数据写入,会抛出异常
社区不再支持 Binary 类型数据写入 CSV,无可读性。
UI
Session 级参数展示
无法从 UI 里查看 Session 级参数
可以从 SQL DataFrame 页面查看当前任务执行时的 Session 级参数
-

2025-09-25

引擎类型
内核版本(大版本)
更新描述
标准引擎
Standard-S 1.1(native)
1. Hadoop-cos 版本升级至8.3.22
2. 支持 count(distinct ) 开窗
3. AggregatePushdownThroughJoins 规则优化(需手动开启)
4. 部分默认参数更新
Standard-S 1.1
1. Spark 版本由3.5.1升级至3.5.3
2. 支持 count(distinct ) 开窗
3. Hadoop-cos 版本升级至8.3.22
4. AggregatePushdownThroughJoins 规则优化(需手动开启)
5. 部分默认参数更新

2024-12-20

引擎类型
内核版本(大版本)
内核版本 ID(仅列出北上广地域)
更新描述
标准引擎
Standard-S 1.1
广州:2d5354d7-73c6-453c-9fdb-d486f1fba373
上海:1086a78b-3677-4b13-b8e9-3ba703f4ac30
北京:34b89da2-49c3-4f8f-8ba2-b5446b3f2bd3
1. 修复 alter table rename 表名时 db location 为空报错问题。
2. 支持 spark3.5 读 parquet 结果文件。
3. 增加对 geo 函数的支持。
4. 去除 ODPS 包。
5. 完善小文件合并功能。
SuperSQL
SuperSQL 1.0
广州:dff863f5-131a-405d-8345-4a5f6f3f6989
上海:1571cd52-8b87-4816-8a4c-2dc43610502b
北京:78aff260-2423-42ac-8654-c03d2a0c37d0
1. 修复任务长时间被HiveExternalCatalog.withClient 阻塞的问题。
2. 去除 ODPS 包。
3. 完善小文件合并功能。
SuperSQL 3.5
广州:c38270d1-2faf-4626-b525-7803f4c181e4
上海:f555081c-b8d1-41a5-aa5c-ff958374bc58
北京:ac6241b3-765d-4056-b122-5414b3823577
1. 修复 alter table rename 表名时 db location 为空报错问题。
2. 增加对 geo 函数的支持。
3. 去除 ODPS 包。
4. 完善小文件合并功能。
Spark
3.2
广州:19a491b0-2bc9-49e4-a1ed-50110a8efa18
上海:ac2a6f2c-5578-49c9-9426-67193de0475a
北京:988a484b-e4ed-4b9a-b095-83cc51451556
1. 修复任务长时间被 HiveExternalCatalog.withClient 阻塞的问题。
2. 去除 ODPS 包。
3. 完善小文件合并功能。
3.5
广州:1460d589-c92c-4851-beb1-b446d180409c
上海:08901a35-b11e-4206-a95b-5dc1ad94bd43
北京:b51ded45-1d99-44b4-a197-08ae4bef9dab
1. 修复 alter table rename 表名时 db location 为空报错问题。
2. 增加对 geo 函数的支持。
3. 去除 ODPS 包。
4. 完善小文件合并功能。

2024-11-15

引擎类型
内核版本(大版本)
内核版本 ID(仅列出北上广地域)
更新描述
标准引擎
Standard-S 1.1
广州:04e77717-6db3-439e-a861-75d5b036c49c
上海:3299b3e1-41a0-42cc-818e-9b270292ef84
北京:00633d49-8588-43d6-b227-798bc5aa3249
1. 支持写入任务展示分区详情。
2. 去除 ODPS 包。
3. 优化规则ConvertInnerToSemiJoins/AggregatePushdownThroughJoins/EliminateInnerJoinWithAgg 默认关闭。
4. 支持分区内小文件的收集,避免小概率无法上传分区写入信息问题。
5. 修复 Doris 联邦读 datetime 时间类型报错的问题。
SuperSQL
SuperSQL 1.0
广州:1c0ae7de-09d1-4a47-bc1f-db519e9f53be
上海:1538c41b-ce08-4131-9ceb-74db33b6d188
北京:615129ef-1566-4875-8b3c-ceac04b78742
1. 支持写入任务展示分区详情。
2. 去除 ODPS 包。
3. 优化规则 ConvertInnerToSemiJoins/AggregatePushdownThroughJoins/EliminateInnerJoinWithAgg 默认关闭。
4. 支持分区内小文件的收集,避免小概率无法上传分区写入信息问题。
5. 修复 Doris 联邦读 datetime 时间类型报错的问题。
SuperSQL 3.5
广州:1e88b7ff-460d-4930-90b3-ae6040fe4ccc
上海:b3e8f087-e3a7-43f6-a298-3f99abd1e18a
北京:876bae90-ed7c-43e4-a023-7e5241b48af8
1. 支持写入任务展示分区详情。
2. 去除 ODPS 包。
3. 优化规则ConvertInnerToSemiJoins/AggregatePushdownThroughJoins/EliminateInnerJoinWithAgg 默认关闭。
4. 支持分区内小文件的收集,避免小概率无法上传分区写入信息问题。
5. 修复 Doris 联邦读 datetime 时间类型报错的问题。
Spark
3.2
广州:15d237e2-4893-4106-a176-a2bc884905e9
上海:76bff2db-34dd-481e-9161-56c21c1197b0
北京:84c0ce13-5087-4c91-a540-5d9b0952acaf
1. 支持写入任务展示分区详情。
2. 去除 odps 包。
3. 优化规则ConvertInnerToSemiJoins/AggregatePushdownThroughJoins/EliminateInnerJoinWithAgg 默认关闭。
4. 支持分区内小文件的收集,避免小概率无法上传分区写入信息问题。
5. 修复 doris 联邦读 datetime 时间类型报错的问题。
3.5
广州:1c396046-bf28-484b-8b79-e48cd1c0a57c
上海:1b53cebf-0b18-4abc-8e49-20def7028446
北京:7482e0ae-b92d-402c-9132-1000f16b7910
1. 支持写入任务展示分区详情。
2. 去除 odps 包。
3. 优化规则ConvertInnerToSemiJoins/AggregatePushdownThroughJoins/EliminateInnerJoinWithAgg 默认关闭。
4. 支持分区内小文件的收集,避免小概率无法上传分区写入信息问题。
5. 修复 doris 联邦读 datetime 时间类型报错的问题

2024-10-30

引擎类型
内核版本(大版本)
内核版本 ID(仅列出北上广地域)
更新描述
标准引擎
Standard-S 1.1
广州:ab313a2c-52f7-4d96-ab51-43e687d5642a
上海:609e6c3d-1dd4-4bb7-9f58-014ff669a531
北京:b4d48cca-8294-43f8-8da4-e1c3326e57c5
1. Bug 修复:
1.1 修复EMR联邦查询失败的错误。
1.2 标准引擎3.5建库失败问题。
1.3 修复联邦 EMR 时 TextFile 格式的表获取 colection.delim 错误的问题。
1.4 修复 HADOOP_CONF_DIR 目录挂载问题。
1.5 普通用户建库权限问题。
1.6 commit failed exception 错误处理。
2. 依赖包升级:
2.1 iceberg-spark-runtime 包升级支持 dangling deletes。
2.2 iceberg extend 包升级修复 commit failed exception 错误处理的问题。
2.3 kyuubi-spark-authz 包升级修复普通用户建库权限问题。
3. 新增 MergeScalaSubqueries 优化规则的拓展,支持子查询的 Iceberg 表的部分场景合并、支持 Parquet 表的完全合并。
4. Livy 支持上报 Error 状态以支持快速重试
Standard-S 1.1(native)
广州:776d1de2-9c3f-483b-aaad-4d91b02d8a83
上海:030deaa6-d16b-4a65-8b39-34cd3b7ef16e
北京:454e8175-b0e7-49ac-9bb7-a07340c85010
腾讯云 Meson 高性能引擎-DLC 向量化标准引擎上线发布, 基于 Spark 3.5 和 Iceberg 1.5。
SuperSQL
SuperSQL 1.0
广州:4b9d2375-b4b4-4113-87a2-db32ba8c88e6
上海:1538c41b-ce08-4131-9ceb-74db33b6d188
北京:e3cf85d8-8920-4c79-b144-94fbd0aeac6e
1. Bug 修复:
1.1 修复 LocalCache 在没有 load 到 bytes 时的异常。
1.2 升级 mysql 驱动包解决 mysql 联邦错误的问题。
1.3 修复联邦 EMR 时 TextFile 格式的表获取colection.delim 错误的问题。
1.4 普通用户建库权限问题。
1.5 commit failed exception 错误处理。
2. 依赖包升级:
2.1 iceberg-spark-runtime 包升级支持dangling deletes。
2.2 iceberg extend 包升级修复 commit failed exception 错误处理的问题。
2.3 kyuubi-spark-authz 包升级修复普通用户建库权限问题。
3. Livy 支持上报 Error 状态以支持快速重试。
SuperSQL 3.5
广州:8c5b699e-44e2-45aa-aa3f-2104175836d9
上海:2b12ac55-c1c0-47cf-ae00-431c2d666ef3
北京:f82a3ae0-5d81-4045-a54e-061cf9d04ba8
1. Bug 修复:
1.1 修复 EMR 联邦查询失败的错误。
1.2 标准引擎3.5建库失败问题。
1.3 修复联邦 EMR时TextFile 格式的表获取colection.delim 错误的问题。
1.4 修复 HADOOP_CONF_DIR 目录挂载问题。
1.5 普通用户建库权限问题。
1.6 commit failed exception 错误处理。
2. 依赖包升级:
2.1 iceberg-spark-runtime 包升级支持dangling deletes。
2.2 iceberg extend 包升级修复 commit failed exception 错误处理的问题。
2.3 kyuubi-spark-authz 包升级修复普通用户建库权限问题。
3. 新增 MergeScalaSubqueries 优化规则的拓展,支持子查询的 Iceberg 表的部分场景合并、支持 Parquet 表的完全合并。
4. Livy 支持上报 Error 状态以支持快速重试。
Spark
3.2
广州:2979fda0-b012-4624-a7ae-b552cff24fdb
上海:16d23556-1136-420f-811e-18a665b55eef
北京:aaefed93-76a2-4b02-931a-e2503feefbf7
1. Bug 修复:
1.1 修复 LocalCache 在没有 load 到 bytes 时的异常。
1.2 升级 mysql 驱动包解决 mysql 联邦错误的问题。
1.3 修复联邦 EMR 时 TextFile 格式的表获取colection.delim 错误的问题。
1.4 普通用户建库权限问题。
1.5 commit failed exception 错误处理。
2. 依赖包升级:
2.1 iceberg-spark-runtime 包升级支持dangling deletes。
2.2 iceberg extend 包升级修复 commit failed exception 错误处理的问题。
2.3 kyuubi-spark-authz 包升级修复普通用户建库权限问题。
3. Livy 支持上报 Error 状态以支持快速重试。
3.5
广州:faef9099-a352-42f3-8826-cdb2cdaff879
上海:224ded79-c896-460c-a3dc-ef7fd8713c7c
北京:ef97de9d-1bb1-457f-832a-c0293f633454
1. Bug 修复:
1.1 修复 EMR 联邦查询失败的错误。
1.2 标准引擎3.5建库失败问题。
1.3 修复联邦 EMR 时 TextFile 格式的表获取 colection.delim 错误的问题。
1.4 修复 HADOOP_CONF_DIR 目录挂载问题。
1.5 普通用户建库权限问题。
1.6 commit failed exception 错误处理。
2. 依赖包升级:
2.1 iceberg-spark-runtime包升级支持dangling deletes。
2.2 iceberg extend 包升级修复 commit failed exception 错误处理的问题。
2.3 kyuubi-spark-authz 包升级修复普通用户建库权限问题。
3. 新增 MergeScalaSubqueries 优化规则的拓展,支持子查询的 Iceberg 表的部分场景合并、支持 Parquet 表的完全合并。
4. Livy 支持上报 Error 状态以支持快速重试。

2024-09-26

引擎类型
内核版本(大版本)
内核版本 ID(仅列出北上广地域)
更新描述
标准引擎
Standard-S 1.1
基于 Spark3.5内核标准引擎版本上线
SuperSQL
SuperSQL 1.0
广州:4dc13fd6-e1ea-41d6-8a6e-cafb55d4be7f
上海:0721c3db-1454-4b7b-aac2-c0b990cc1dee
北京:30f39b17-aa8b-40c9-9a1b-39b819bb32d4
1. 支持联邦 Doris 读写。
2. 修复 MySQL 升级后无法联邦的问题。
3. 增加 datamask 函数。
4. 修复 t265 迭代存在 Iceberg 内存泄露问题。
5. 修复 DateDiff 函数无法支持 codegen 问题。
6. 删除 committer 相关配置。
SuperSQL 3.5
广州:be7e4afe-ba87-42e1-bdfb-cb5c7e372825
上海:7be45a56-5b00-44ba-bb12-7f26fb5ee217
北京:d281ccaf-cae5-4a11-82c7-dfc5e4ea95ef

1. 支持联邦 Doris 读写。
2. 修复 MySQL 升级后无法联邦的问题。
3. 增加 datamask 函数。
4. 修复 t265 迭代存在 Iceberg 内存泄露问题。
5. 修复 DateDiff 函数无法支持 codegen 问题。
6. 删除 committer 相关配置。
Spark
3.2
广州:4967a9a4-642f-4c3a-b04e-78c28381811a
上海:faaf9906-7e9d-4c7d-9d70-77080f7837ed
北京:de9e946b-c271-481a-93a0-b963dfd4ebc6
1. 支持联邦 Doris 读写。
2. 修复 MySQL 升级后无法联邦的问题。
3. 增加 datamask 函数。
4. 修复 t265 迭代存在 Iceberg 内存泄露问题。
5. 修复 DateDiff 函数无法支持 codegen 问题。
6. 删除 committer 相关配置。
3.5
广州:81eaa585-0c68-46da-b3aa-d1c7d0067776
上海:2b99949e-b347-46d6-80f6-8d8cfbab0351
北京:2fdb3b08-07bf-49ee-a9fd-aa5bb2ae3ae3
1. 支持联邦 Doris 读写。
2. 修复 MySQL 升级后无法联邦的问题。
3. 增加 datamask 函数。
4. 修复 t265 迭代存在 Iceberg 内存泄露问题。
5. 修复 DateDiff 函数无法支持 codegen 问题。
6. 删除 committer 相关配置。

2024-08-15

引擎类型
内核版本(大版本)
内核版本 ID(仅列出北上广地域)
更新描述
SuperSQL
SuperSQL 1.0
北京:6483c7f7-8b0e-42e5-84c7-431a8c402c77
上海:c8cdcc18-e424-4ea0-ba68-1d4f6eec774c
广州:f405a51b-1bc3-47df-adb5-a2aa6bcb0e9e
1. 实现 Spark hive write 全局 Repartition,支持小文件合并。
2. sort nullOrder 可参数配置。
3. 修复查询重名列与 unionall 一起使用存在数据错误问题。
4. 新增 hive iceberg runtime 依赖包。
SuperSQL 3.5
北京:f17b701e-3e8e-4a5a-8d3c-26acd3c702bd 上海:8778b043-980b-4dae-8b33-aca10128e972
广州:fe541a8f-d923-4254-b7c0-1babe33a5d37
1. 实现 Spark hive write 全局 Repartition,支持小文件合并。
2. sort nullOrder 可参数配置。
3. 修复查询重名列与 unionall 一起使用存在数据错误问题。
4. 新增 hive iceberg runtime 依赖包。
Spark
3.2
北京:25e2f5ee-b459-4775-be0d-10541c147a74
上海:de76ad64-b014-427f-9c40-27c8677ac445
广州:69a0cfd0-f2db-450d-a7b6-0eb05a8f47c8
1. 实现 Spark hive write 全局 Repartition,支持小文件合并。
2. sort nullOrder 可参数配置。
3. 修复查询重名列与 unionall 一起使用存在数据错误问题。
4. 新增 hive iceberg runtime 依赖包。
3.5
北京:705f2381-2b77-4b53-be41-189bad99bca6
上海:e7f2c886-5f3b-4b99-8385-daedf81ec758
广州:66834c28-855a-4bb6-8419-e7c73ebcc73c
1. 实现 Spark hive write 全局 Repartition,支持小文件合并。
2. sort nullOrder 可参数配置。
3. 修复查询重名列与 unionall 一起使用存在数据错误问题。
4. 新增 hive iceberg runtime 依赖包。

2024-07-17

影响范围:全地域更新
引擎类型
内核版本(大版本)
内核版本 ID(仅列出北上广地域)
更新描述
SuperSQL
SuperSQL 1.0
北京:8d983ad5-08c3-4252-b2ca-fb76e31342af
上海:8b00d420-3514-4b2d-94be-69bda8f145bd
广州:f2a18e86-c69c-48d9-a402-775f4a9c629a
1. 升级 hadoop-cos 到8.3.9,修复 cos 普通桶读取可能导致任务卡住的问题。
2. 默认打开洞察的事件采集。
SuperSQL 3.5
北京:f5e50777-944b-4c2a-bf65-f378e875dff1
上海:56589b24-2f80-4a19-89e7-fd8fd147daae
广州:abbbe6c9-cbc8-476d-ae70-38832cee30be
1. 升级 hadoop-cos 到8.3.9,修复 cos 普通桶读取可能导致任务卡住的问题。
2. 修复联邦默认 hive catalog 配置的问题。
3. 默认打开洞察的事件采集。
SuperSQL 1.0(native)
北京:97b2549f-fbac-4d96-8ee1-339462501b74
上海:b8ddcea6-cab9-4e95-951c-807f1cff7264
广州:2db4fe5b-b8ed-4f2d-a4a1-093bd38f7f9f
腾讯云 Meson 高性能引擎-DLC 向量化引擎上线发布。
Spark
3.2
北京:b81c1132-0580-4b9d-bb51-419e97369d9e
上海:0e240454-1949-40ed-8d68-da4536dcaa36
广州:d5b4e0c7-9d01-4169-9d93-3b458f81bec7
1. 升级 hadoop-cos 到8.3.9,修复 cos 普通桶读取可能导致任务卡住的问题。
2. 新增配置 Spark 镜像缓存。
3. 默认打开洞察的事件采集。
3.5
北京:1348aa41-9d72-43a6-a656-4f58c59b2692
上海:c451fcac-448c-4f1f-908e-ecb80950eb95
广州:cd161662-24b2-468f-9500-7a87ac438381
1. 升级 hadoop-cos 到8.3.9,修复 cos 普通桶读取可能导致任务卡住的问题。
2. 修复联邦默认 Hive catalog 配置和DataLakeCatalog 默认配置错误的问题。
3. 新增配置镜像缓存。
4. 默认打开洞察的事件采集。
3.2(native)
北京:2ec4dd72-3155-4fe3-8e26-5a92e1f2dcf1 上海:6326c41a-2769-44ac-844e-cd4bb35ab2ca 广州:7d94f905-c3b7-4026-9e8a-374e8559a759
腾讯云 Meson 高性能引擎-DLC 向量化引擎上线发布。

2024-06-28

影响范围:全地域更新
引擎类型
内核版本(大版本)
内核版本 ID
功能更新
SuperSQL
SuperSQL 1.0
北京:1736ea7f-3273-44ac-a89e-e3f2003e53f7 上海:9a7c84e7-e26e-4e99-92d6-9ce1eefc7a32 广州:cd161662-24b2-468f-9500-7a87ac438381
1. 升级 hadoop-cos 到8.3.7,修复拉取镜像失败不重试的问题。(更新:该版本有其他风险,建议升级)
2. 添加 Driver 启动后第一次连接 livy 时的重试机制,避免集群因网络问题启动时间过长。
3. 优化 Livy 心跳上报的逻辑。
4. 优化 Livy 日志打印。
SuperSQL 3.5
北京:200dabe0-f73d-460e-ac1d-fc2058708b55 上海:3c7256e6-9c16-4009-9592-542ef9358624 广州:564f51a5-16f3-4008-9790-1525c9f9d554
1. 升级 hadoop-cos 到8.3.7,修复拉取镜像失败不重试的问题。(更新:该版本有其他风险,建议升级)
2. 添加 Driver 启动后第一次连接Livy时的重试机制,避免集群因网络问题启动时间过长。
3. 优化 Livy 心跳上报的逻辑。
4. 优化 Livy 日志打印。
Spark
3.2
北京:cf230dfc-869d-4cca-8f89-3c7351741414 上海:5e6c2ffc-eb89-48ac-8116-b7baeab31ff5 广州:35bd1c97-62cb-4a06-9517-266258c4e20f
1. 升级 hadoop-cos 到8.3.7,修复拉取镜像失败不重试的问题。(更新:该版本有其他风险,建议升级)
2. 添加 Driver 启动后第一次连接 livy 时的重试机制,避免集群因网络问题启动时间过长。
3. 优化 Livy 心跳上报的逻辑。
4. 优化 Livy 日志打印。
3.5
北京:68f53306-99a4-4cc3-8c00-220231d6e814 上海:c228ac12-2805-4159-9ba6-fcfbf770484c 广州:d5442892-8edf-4263-a488-1de6c6cbf3aa
1. 升级 hadoop-cos 到8.3.7,修复拉取镜像失败不重试的问题。(更新:该版本有其他风险,建议升级)
2. 添加 Driver 启动后第一次连接 livy 时的重试机制,避免集群因网络问题启动时间过长。
3. 优化 Livy 心跳上报的逻辑。
4. 优化 Livy 日志打印。

2024-06-19

影响范围:全地域更新
引擎类型
内核版本(大版本)
内核版本 ID
功能更新
SuperSQL
SuperSQL 1.0
北京:0f971b94-a55d-43e3-9144-e9b0e24c18dc 上海:cb150c67-5125-45c1-9022-1bb3e110e6fe 广州:cd161662-24b2-468f-9500-7a87ac438381
1. 修复 Drop iceberg table 时提示表类型错误的BUG。
2. 增大 Livy 同时可运行的任务数、可保存查询的任务数默认限制,统一交由控制台控制。
SuperSQL 3.5
北京:f365495d-0e24-471b-a201-348424b6e68f 上海:b38ea2cc-13c7-47d9-8b4d-4cfea85fffe2 广州:fffabbd0-5afc-46d5-bc57-657eab1791ce
1. 修复 Drop iceberg table 时提示表类型错误的BUG。
2. 增大 Livy 同时可运行的任务数、可保存查询的任务数默认限制,统一交由控制台控制。
3. 新增 Python UDF 的支持。
Spark
3.2
北京:6a51eeb6-8b4c-43c2-9d64-564c969988ba 上海:de408265-8e5a-4b62-953f-31137d12e80d 广州:4643d213-4749-4826-a7fe-bb615788a52e
1. 修复 Drop iceberg table 时提示表类型错误的BUG。
2. 增大 Livy 同时可运行的任务数、可保存查询的任务数默认限制,统一交由控制台控制。
3.5
北京:b2e6e9bb-94ec-483b-8cda-d144da56744f 上海:1c5f2784-a4d3-40f6-8e09-ded1069257ea 广州:94a1d024-157d-420e-bc9a-693b89eb7d5c
1. 修复 Drop iceberg table 时提示表类型错误的BUG。
2. 增大 Livy 同时可运行的任务数、可保存查询的任务数默认限制,统一交由控制台控制。
3. 新增 Python UDF 的支持。