因此,我试图使用logstash将数据从MongoDB转移到elasticsearch。我不希望重复的内容被写入,所以我使用doc_as_upsert => true
和输出中的document_id
参数。这是我的logstash配置文件。
input {
jdbc{
jdbc_driver_class => "com.dbschema.MongoJdbcDriver"
jdbc_driver_library => "/path/to/mongojdbc1.8.jar"
jdbc_user => ""
jdbc_password => ""
jdbc_connection_string => "jdbc:mongodb://127.0.0.1:27017/db1"
statement => "db1.coll1.find({ },{'_id': false})"
}
}
output {
elasticsearch {
hosts => ["http://127.0.0.1:9200"]
index => "test"
user => ""
password => ""
doc_as_upsert => true
document_id => "%{datetime}"
}
}
如您所见,我正在尝试使用MongoDB文档的datetime字段(它是一个字符串)作为elasticsearch的文档id。但是,插入到Elasticsearch中的文档是这样的:
{
"_index" : "test",
"_type" : "_doc",
"_id" : "%{datetime}",
"_score" : 1.0,
"_source" : {
"@timestamp" : "2020-05-28T08:53:28.244Z",
"document" : {
# .. some fields ..
"datetime" : "2020-05-28 14:22:29.133363",
# .. some fields ..
},
"@version" : "1"
}
}
不使用作为_id的日期时间字段的值,而是使用字符串%{ datetime }作为ID。如何解决这个问题?
发布于 2020-05-28 09:05:54
document_id
字段不在根级,因此需要将语法更改为:
document_id => "%{[document][datetime}}"
https://stackoverflow.com/questions/62060896
复制相似问题