我有一个Spark结构的流媒体应用程序。应用程序从kafka接收数据,并且应该使用这些值作为参数来处理来自cassandra数据库的数据。我的问题是,我如何使用输入数据帧(kafka)中的数据,作为cassandra中的"where“参数"select”,而不会出现以下错误:
Exception in t
我正在使用Databricks运行一个使用Scala (v2.12)的Spark集群(v3.0.1)。我将Scala文件编译为JAR,并使用Databricks UI中的spark-submit运行作业。该函数的返回类型为Array[Array[Double]]。因此,在Scala中,它将如下所示: val result = myListRdd.map(f(_, ...<more-args&g