我正在尝试通过com.crealytics.spark.excel读取excel文件。但在尝试运行我的代码时,我遇到了以下错误:
scala.MatchError: Map(treatemptyvaluesasnulls -> true, location -> a.xlsx, useheader -> true, inferschema -> False, addcolorcolumns -> False) (of class org.apache.spark.sql.catalyst.util.CaseInsensitiveMap)
at com.crealytics.spark.excel.WorkbookReader$.apply(WorkbookReader.scala:30)
下面是我的代码:
spark.read
.format("com.crealytics.spark.excel")
.option("location", fileLoc)
.option("useHeader", "true")
.option("treatEmptyValuesAsNulls", "true")
.option("inferSchema", "False")
.option("addColorColumns", "False")
.load()
发布于 2020-02-22 16:45:45
如果您安装了com.crealytics:spark-excel_2.11:0.12.5
库,这可能会起作用(在Databricks中按预期工作)。
val df_excel= spark.read.
format("com.crealytics.spark.excel").
option("useHeader", "true").
option("treatEmptyValuesAsNulls", "false").
option("inferSchema", "false").
option("addColorColumns", "false").load(file_path)
display(df_excel)
https://stackoverflow.com/questions/57962991
复制