我正在尝试使用PySpark在外部jar中导入类,我使用--jars和包含我想要使用的类的jar的路径运行spark-shell。但是,当我在代码中导入一个类时,找不到命名空间: from io.warp10.spark import WarpScriptFilterFunction 错误: SLF4J: Actual bindingTraceback (most recent call last): from io.war
我们如何在Spark中分解多个数组列?我有一个包含5个字符串化数组列的数据帧,我想在所有5列上进行分解。为了简单起见,用3列显示示例。subCategoryList,...
from table 但这是不允许的,我得到了以下错误- Exception in thread "main" org.apache.spark.sql.AnalysisException