同样的代码在Linux Ubuntu上运行得很好,同样的jar,files.My spark是3.1.2,hadoop是3.2。我已经尝试了来自maven的所有gcs连接器版本。FileSystem: java.lang.NoClassDefFoundError: Could not initialize class com.google.cloud.hadoop.fs.gcs.GoogleHadoopFileSystem158, in <module>
val = df.write.format('bigqu