我有三个7.4.2 ELK节点,我在第一个elasticsearch/logstash/kibana节点中配置了集群,并在该节点重新启动了ELK。成功了。但是,一旦我在第二个ELK节点中配置了集群,第一个节点的日志存储就会自动停止,并出现以下错误。
An unexpected error occurred! {:error=>#<LogStash::Outputs::ElasticSearch::
HttpClient::Pool::HostUnreachableError: Could not reach host Manticore::SocketException:
我正在尝试启用logstash死信队列,但是,我收到了这条警告消息,elasticsearch没有收到来自logstash的日志。
[WARN ][org.logstash.common.io.DeadLetterQueueWriter][main] Event previously submitted to dead letter queue. Skipping...
我正在尝试的情景,
限制elasticsearch碎片,因此在本例中,它不能创建新的碎片,日志将出现在死信队列中
curl -X PUT 'http://elasticsearch:9200/_cluster/sett
我有一个包含logstash和kibana的双节点elasticsearch集群。在我启动日志之前,集群一直处于绿色状态,而elasticsearch集群变为黄色状态。运行curl -XGET http://localhost:9200/_cat/shards?pretty将显示以下内容
.kibana 0 p STARTED 2 8.2kb 172.17.0.1 Ereshkigal
.kibana 0 r UNASSIGNED
我正在使用logstash-1.5.1来处理csv文件并上传到elasticsearch-1.5.1。这个过程应该发生在每个day.So我把我的logstash和弹性搜索引擎打开一次,并离开它希望csv文件处理应该每天发生,并上传到elasticsearch.Every第一天新的csv文件是从互联网上下载并存储在本地文件夹中从logstash读取。但令人惊讶的是,logstash在2/3天后停止处理csv文件。我不知道原因,请帮助我。logstash输入文件配置如下。
input {
file {
type => "csv"
p