我可以从HDFS读取csv数据并创建弹性搜索索引。为了创建Elastic search Index ID,我使用了csv数据中的一个唯一列。现在我的要求是弹性搜索索引ID应该是2个CSV列的组合。有没有人知道我该如何做到这一点?我正在使用elasticsearch-spark库创建索引。以下是示例代码。
我将事件日志加载到elasticsearch引擎中,并使用Kibana将其可视化。我的事件日志实际上存储在Google Big Query表中。目前,我正在将json文件转储到Google存储桶中,并将其下载到本地驱动器。然后使用logstash将json文件从本地驱动器移动到elastic搜索引擎。现在,我正试图通过在google大查询和弹性搜索之间建立联系来自动化这个过程。根据我所读到的,我了解到有一个输出连接器,它将来自elas
我根据django模型创建了一个文档,如下所示。从django_elasticsearch_dsl导入字段 completesearch_phase_execution_exception', 'Field [complete] is not a completion suggest field')
我认为问题在于该字段的映射没有正确创建,但我不知道如何修复它。更
我不知道如何配置Pycharm,这样我就可以直接在Pyspark中运行脚本。我在Elasticsearch集群上使用Pyspark,并使用以下代码来运行脚本。当我尝试将pyspark shell配置为解释器时,它使用默认的python解释器运行,但由于错误it I not a valid SDK而无法工作:
fromes.resource" : "titanic/passen