我想使用spark在Delta表中添加一些列,但它显示的错误如下:
ALTER ADD COLUMNS does not support datasource table with type org.apache.spark.sql.delta.sources.DeltaDataSource有什么办法改变我在三角湖的桌子吗?
我实际上是和spark和scala一起开发齐柏林飞艇的。我想导入包含:import com.databricks.spark.xml的库。我试过了,但我仍然在齐柏林飞艇错误中犯了同样的错误:<console>:25: error: object databricks is not a member of package com。我用齐柏林飞艇创建了一个注释,代码是:%dep z.load
我正在尝试使用数据复制活动从azure databricks delta湖提取信息,但我注意到它并不直接将信息从增量湖传递给我需要的SQL服务器,而是必须将其传递给蔚蓝blob存储,运行它时,它会引发以下错误ErrorCode=AzureDatabricksCommandError,Hit an error when running the command in Azure Databricks.fs.azure.account.key Caused by: Invalid configuration value detected for