我在一个Databricks集群上使用GeoMesaSpark,它引用了这个示例笔记本:。导入和使用UDF函数(如st_makePoint和st_intersects )没有问题。但是,当我尝试使用st_geoHash创建点的Geo散列时,我得到了以下错误:
NoClassDefFoundError: Could not initialize class org.locationtech.geomesa.spark.jts.util
我一直在用简单的空间查询测试geomesa,并将其与Postgis进行比较。i, i*2) as geom from seriesselect st_distance(a.geom, b.geom) from points as a, points as bimport org.apache.spark.sql.SparkSession
import org.locationtech.geomesa.spark.j
问题在于如何在py火花代码中使用hive jar。我们正在遵循以下一组标准步骤spark.sql("create temporary function public_upper_case_udfas 'com.hive.udf.PrivateUpperCase' using JAR 'gs://hivebqjarbucket/UpperCa