首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Kibana/Elasticsearch 6.8 - delete_by_query返回原因“被封堵:[禁止/8/索引写入(接口)];”

Kibana是一个开源的数据可视化工具,用于对Elasticsearch进行数据分析和展示。Elasticsearch是一个开源的分布式搜索和分析引擎,用于存储、搜索和分析大量数据。

在Elasticsearch 6.8版本中,delete_by_query操作返回的原因“被封堵:[禁止/8/索引写入(接口)]”表示由于索引写入接口被禁止,导致无法执行delete_by_query操作。

这个错误信息通常是由于Elasticsearch的安全设置导致的。Elasticsearch提供了一套安全机制,可以限制对索引的写入操作。当某个用户或角色被配置为禁止索引写入时,任何尝试执行写入操作的请求都会被拒绝,并返回类似的错误信息。

要解决这个问题,可以通过以下步骤进行操作:

  1. 检查Elasticsearch的安全设置:查看Elasticsearch的配置文件,确认是否启用了安全机制,并检查相关的用户和角色配置。
  2. 修改安全设置:如果需要执行delete_by_query操作,需要确保相应的用户或角色被授权进行索引写入。可以通过修改Elasticsearch的安全策略,或者创建新的用户和角色,并赋予相应的写入权限。
  3. 重新执行delete_by_query操作:在修改安全设置后,重新执行delete_by_query操作,应该不再返回类似的错误信息。

腾讯云提供了一系列与Elasticsearch相关的产品和服务,可以帮助用户快速搭建和管理Elasticsearch集群。具体推荐的产品和产品介绍链接如下:

  1. 云搜索 Elasticsearch:腾讯云提供的托管式Elasticsearch服务,支持快速创建、扩展和管理Elasticsearch集群。详情请参考:https://cloud.tencent.com/product/es
  2. 对象存储 COS:腾讯云提供的高可靠、低成本的对象存储服务,可用于存储Elasticsearch索引数据。详情请参考:https://cloud.tencent.com/product/cos

请注意,以上推荐的产品和服务仅为示例,其他云计算品牌商也提供类似的产品和服务。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

Elasticsearch 的简单使用

的安装包、解压、运行即可 关于下载你可以直接在以下链接中找到最新版下载 Elasticsearch Kibana -Logstash Elastic 具有很多丰富的产品,你可以在这里找到 产品...关于下载安装包 直接运行、解压我就不说了,接下来我演示使用 Docker ,并引入一个开箱即用的 Docker 环境 docker-elk 内置了 很多产品,比如 ElasticsearchKibana...接着就可以运行了,(镜像编译可能需要一丢丢的时间) docker-compose up 之后就可以打开浏览器测试了, Elasticsearch 默认的端口是:9200, Kibana 默认端口是:5601...(会将旧文档删除,再将新文档写入,同时版本 + 1) 如果我们并不希望每次操作版本都加 1 ,那么我们改怎么操作呢?...,然后删除一个不存在的文档,看到提示 not_found,可以看到,执行的所有结果都返回了 以上就是 简单演示了 Elasticsearch 简单的增删改查操作。

87210
  • elasticsearch文档Delete By Query API(一)

    本文是Elasticsearch系列的第十二篇,阅读前面的文章,有助于更好的理解本文: ---- 1.elasticsearch安装与配置 2.初识elasticsearch中的REST接口 3.elasticsearch...修改数据 4.elasticsearch文档操作 5.elasticsearch API约定(一) 6.elasticsearch API约定(二) 7.elasticsearch文档读写模型 8.elasticsearch...文档索引API(一) 9.elasticsearch文档索引API(二) 10.elasticsearch文档Get API 11.elasticsearch文档Delete API ---- 1.Delete...如果搜索或批量请求拒绝,则 _delete_by_query会默认进行重试,最多10次,达到最大重试次数限制会导致 _delete_by_query操作中止,并且所有的失败信息在响应的failures...节流是通过在批处理之间等待来实现限制作用,通过在 _delete_by_query内部的每批次之间填充时间来实现节流,填充时间是批量大小除以requestspersecond与写入操作所花费的时间之间的差异

    4.6K10

    Elasticsearch解决问题之道——请亮出你的DSL!

    4, 查询慢,但不知道什么原因导致的。 比如:elasticsearch8亿数据查询慢是怎么回事,有什么办法优化。 等等等等….....2.3.1 增 单条导入数据、批量bulk写入数据、第三方同步数据(本质也是批量)。...3.4,查询慢,但不知道什么原因导致的。 从大往小,逐步细化排解 思路1:索引层面。 8亿条分散到多个索引、多个副本当中,还是一个索引? 思路2:Mapping映射设计层面。...4:返回字段层面 有没有检索的使用_source:"" 限定返回的字段, 如果没有,会全字段返回,数据量大的话,也会慢。...思路8:外部思维 想一想,查询的时候,有没有并行的写入操作? 那么查询的时候慢,是不是写入压力大队集群造成的影响。 思路9:排除网络慢的原因 内网查询还是外网映射查询,返回时间也不一样。

    2.8K32

    Elasticsearch7 设置用户名密码 && 查询

    kibana 账号:拥有 kibana_system 角色,用户 kibana 用来连接 elasticsearch 并与之通信。...Kibana 服务器以该用户身份提交请求以访问集群监视 API 和 .kibana 索引。不能访问 index。 logstash_system 账号:拥有 logstash_system 角色。...9200/XX/XXX' 比如想要清空某个索引下的数据: curl -XPOST --user admin:admin 'http://XXXX:9200/XXXX/XXX/_delete_by_query...], "metadata" : { }, "transient_metadata" : { "enabled" : true } } } 五、添加自定义用户 添加用户接口为...之类的字符,这样有可能会导致密码认证不成功,其他字符测试过暂时没问题(具体原因不详,反正我遇到过这个坑) 六、header带密码插件访问 修改配置文件elasticsearch.yml,增加 http.cors.allow-headers

    6.6K20

    3.ElasticSearch分布式数据分析引擎基础概念与使用

    接近实时(NearReatime-NRT): 当数据写入后一般在1秒左右就可以客户端调用,基于ES执行搜索和分析可以达到秒级。...工具介绍 描述: ES是支持以及HTTP协议进行REST风格接口访问,一般得我们需要有个工具帮我们发送http请求,该工具常见的是curl英 [kɜːl]、Head插件、Kibana DeveloperTool...GET /index03/_doc/kibana # (4) 批量写入索引文档数据 # 如果有许多文档需要索引则我们可以通过API批量提交,使用这种方式比单独提交请求要快得多因为其减少了网络往返,例如下列的数据集合...# 7.3 清空多个索引数据 : 索引名称1,索引名称2/_delete_by_query POST http://es-server:9200/index01,index02/_delete_by_query...Tips : 值得注意,文档的字段不能存在的原因有如下几种可能写入索引字段值在json中是null或者[]/字段设置了"index":false的映射导致不会写入索引中、字段设置了ignore_above

    2K42

    58同城 Elasticsearch 应用及平台建设实践

    典型问题之一:Elasticsearch集群的磁盘被打爆 造成磁盘被打爆有以下几种原因索引泛滥,索引接入无流程管控 索引无生命周期管理 索引分片数量不合理,单分片过大 日志类索引未按天等细粒度划分...分片数量不是越多越好,分片越多会导致写入变慢。 多副本会极大的影响写入吞吐。在Elasticsearch写入机制里,Primary要等待所有Replica写完之后才能返回给客户端。...禁止私自接入新索引,接入账号权限限制匹配特定索引前缀 非日志类应用: 这类多是数据检索类的服务。...Elasticsearch的版本统一升级到6.8以上。...因为Elasticsearch6.8版本开始提供基于角色的安全认证,这对我们的索引治理和管控来说是非常重要的,而之前我们有不少Elasticsearch是在裸奔,没有任何的安全限制。

    89820

    开始使用 Elasticsearch (1)

    如果你你想禁止自动创建索引,您必须配置 action.auto_create_index 以允许这些创建以下索引的组件: PUT _cluster/settings { "persistent":...我们也可以在 elasticsearch.yml 里进行配置。 通常对一个通过上面方法写入Elasticsearch 的文档,在默认的情况下并不马上可以进行搜索。...同时,我们也可以看出来,我们也把左边的数据进行了修改,我们也看到了成功修改的返回信息。...因为我运行了两遍的原因,所以你看到的是 version 为 2 的返回结果。bulk 指令是高效的,因为一个请求就可以处理很多个操作。...30.jpg 一旦 twitter 索引关闭了,那么我们再访问时会出现如下的错误: 31.jpg 我们可以通过 _open 接口来重新打开这个 index : 32.jpg Freeze/unfreeze

    1.2K70

    ELK 集群部署

    ,再根据权重将结果排名,打分,再将返回结果呈现给用户。...Elasticsearch是分布式的,这意味着索引可以分成分片,每个分片可以有0个或多个副本。每个节点托管一个或多个分片,并充当协调器将操作委托给正确的分片。再平衡和路由是自动完成的。...你可以使用 Kibana来搜索,查看存储在Elasticsearch索引中的数据并与之交互。你可以很容易实现高级的数据分析和可视化,以图标的形式展现出来。.../etc/elasticsearch/jvm.options-Xms8g-Xmx8g es API #查看Elasticsearch集群状态("*" 为Master 节点)[...文件vim /etc/kibana/kibana.yml#修改参数如下server.host: "127.0.0.1" #修改这一步是为了禁止外部用户直接访问kibana页面,如果不修改这个参数的话也可以使用

    1.7K30

    一次系统扩容引起的elasticsearch故障及恢复

    硬盘写入性能比较差,因此考虑吧elasticsearch部署在另外两台配置高的服务器,而将kibana、redis等与硬盘关系不大的软件部署在m21p22服务器。...考虑到系统并未设置索引分片,全部索引一律采用的是系统默认的5个分片,而每个索引的数据可能大小不一,结果检查,决定将数据量较大的索引,分片数增加一倍。...这样日志在写入过程中会超时。这就导致logstash的写入速度下降。从而导致redis中数据增加。...当天需要写入数据的索引,也存在部分分片未分配状态: curl -XGET http://192.168.21.23:9203/_cat/shards |fgrep UNASSIGNED |grep '2017.08.16...imageMogr2/auto-orient/strip%7CimageView2/2/w/1240) 考虑到redis缓存一直增加,当务之急是让数据可以写入。保证redis的数据消费。

    1.8K10

    Elasticsearch 集群状态变成黄色或者红色,怎么办?

    3.3 查看未分配的分片的原因 上面的返回结果:unassigned.reason 已经基本包含了未分配的原因。但想得到更为详细的解释,需要使用如下的命令。...返回结果如下: explanation 就是根本原因。如下 head 插件和 Kibana 都能看的更为明显。...如开篇截图的黄色集群状态,本质就是这个原因。要解决此问题,你可以: 添加相同角色的数据节点。 通过更新 index.number_of_replicas 索引设置减少每个主分片的副本数。...PS:这里强调的删除索引,delete 操作,不是删除数据的 delete_by_query 操作,切记!...方案 3:如果你不再写入索引,请使用强制合并 API( force merge API ) 或 ILM 的强制合并操作将其段合并为更大的段。

    1.7K10

    elasticsearch+kibana搭建

    那我们今天就来一同搭建 BELK 日志系统中的elasticsearch+kibana来进行实时的索引在线查看功能 附上: 喵了个咪的博客:w-blog.cn 官网地址:https://www.elastic.co...笔者这里的机器系统是centos6.8,使用BELK需要安装jdk1.8以上(主要是elasticsearch依赖) jdk1.8可以通过官网下载: Java SE Development Kit 8...: can not run elasticsearch as root 主要原因是不能使用root用户来运行elasticsearch, elasticsearch在默写情况下可以直接对服务器执行脚本,...pretty' 我们试着创建一个索引并且写入一条数据: curl -XPUT 'localhost:9200/test-log-2017-4-28?...pretty' -d '{"msg":"这是一条测试log"}' 然后在kibana中就可以查看了 总结 本节我们优先安装并且比较完整的配置了elasticsearch+kibana 这样一个索引和查询系统

    83070

    ES mget、bulk、mappings

    文章目录 1. mget 批量查询 2. bulk 批量写入 3. 条件删除 4. 条件更新 5. 映射 mappings 6. 自动映射 7....条件删除 POST test_index/_delete_by_query { "query": { "term": { "value": 100 } } } 输出.../reference/current/mapping-types.html 映射参数 https://www.elastic.co/guide/en/elasticsearch/reference/current...是否允许强制类型转换 copy_to,把字段的值 copy 到对应字段中,不可见,但是可查 doc_values,设置为 false ,不能对该字段进行排序,聚合查询,可以减少磁盘占用 enable,index 是否索引...,或者 object 字段是否索引 ignore_above,对超过长度的字段,搜索时无法搜索到 index,字段是否可以索引 fields,可以创建多个子字段 norms,是否禁用评分(评分可用来排序

    61710

    Elasticsearch全文检索实战小结——复盘我带的第二个项目

    工程名 play eclipsify 工程名 play clean play deps play run 测试模式 play start release模式 3.5 ES分页处理 ES Java接口返回的默认的最大记录数为...如果想返回超过1W+条的记录,需要做如下设置: PUT ting_index/_settings { "max_result_window" : 500000} 3.6 如何只删除数据,而不删除索引...类似Mysql等关系型数据库的delete from mtable操作,而不是drop掉表,参考如下: POST my_store/products/_delete_by_query { "query...排查方案: GET /_cluster/allocation/explain 3.11 kibana修改时区 kibana->management->advanced setting->dateFormat...qq沟通和微信都不是好方式,最主要原因是不利于查看聊天记录、不利于快速检索。 5.2、进度汇报要详细 包含但不限于项目整体情况、本周已完成、下周计划、项目风险与应对。

    2.8K100

    Elasticsearch全文检索实战小结——复盘我带的第二个项目

    工程名 play eclipsify 工程名 play clean play deps play run 测试模式 play start release模式 3.5 ES分页处理 ES Java接口返回的默认的最大记录数为...如果想返回超过1W+条的记录,需要做如下设置: PUT ting_index/_settings { "max_result_window" : 500000} 3.6 如何只删除数据,而不删除索引...类似Mysql等关系型数据库的delete from mtable操作,而不是drop掉表,参考如下: POST my_store/products/_delete_by_query { "query...排查方案: GET /_cluster/allocation/explain 3.11 kibana修改时区 kibana->management->advanced setting->dateFormat...qq沟通和微信都不是好方式,最主要原因是不利于查看聊天记录、不利于快速检索。 5.2、进度汇报要详细 包含但不限于项目整体情况、本周已完成、下周计划、项目风险与应对。

    1.9K90

    ES 跨集群复制 Cross-Cluster Replication

    1.前言 Elasticsearch(后面统称ES) cross-cluster replication (后面统称CCR)是ES 6.5的一个测试特性,是ES 6.7的的一个全局高可用特性。...可以直接使用灾备集群的索引,实现ES跨数据中心双活。具体如下图 建立两个数据中心,应用正常情况写入Data Center 1,不过两个数据中心都是可读的。...[ES 双数据中心架构图] 2.2 激活集群 可以通过命令激活也可以在kibana里面激活 Kibana激活: [Kibana激活图] 通过命令激活: POST _xpack/license/start_trial.../reference/6.8/ccr-put-auto-follow-pattern.html 2.6 定义别名写入 CCR可以对跨集群的ES的不同索引建立一样的别名,如下: image.png 在DC1...4.参考文献 https://www.elastic.co/guide/en/elasticsearch/reference/6.8/ccr-apis.html

    2.6K10

    干货 | Elasticsearch 多种跨机房灾备方案对比与实战解读

    应用程序同时将数据写入两个集群。 应用程序先将数据写入消息队列,然后由下游的消费者消费并写入集群。 Elasticsearch 官方的跨集群复制功能,基于文档操作实现订阅复制。...当主集群发生宕机时,如果我们想让在备集群中的 follower index 接管服务,允许进行写入请求,需要依次暂停索引的复制,关闭索引,取消跟随 leader index,最后将其重新打开为普通的索引...别名指向的多个索引中,只能有一个索引是允许接收写入请求的,在 cluster01 将索引 logs-cluster01 设置为可写,logs-cluster02 索引中的数据将会通过 CCR 跨集群复制从集群...Elasticsearch 需要在 leader index 的分片上保留这些操作的历史记录,以便它们可以 follower index 的分片任务拉取,用于保留这些操作的底层机制是软删除。...分别在 cluster01 和 cluster02 集群上查看索引 index-1 的数据,可以看到 Logstash 成功从 Kafka 消费消息并写入 Elasticsearch

    5.5K41

    好玩的ES---第一篇之安装和基本CRUD

    Lucene本身就可以认为迄今为止性能最好的一款开源搜索引擎工具包,但是lucene的API相对复杂,需要深厚的搜索理论。很难集成到实际的应用中去。...jdk8,需要从新安装jdk11才行!...默认开启了远程访问 ---- Kibana 简介 Kibana Navicat是一个针对Elasticsearch mysql的开源分析及可视化平台,使用Kibana可以查询、查看并与存储在ES索引的数据进行交互操作...一个索引由一个名字来标识(必须全部是小写字母的),并且当我们要对这个索引中的文档进行索引、搜索、更新和删除的时候,都要使用到这个名字。 映射 映射是定义一个文档和它所包含的字段如何存储和索引的过程。...description":"iPhone 19屏幕采用61.8英寸OLED屏幕"} index是新增文档,update是更新文档,delete是删除文档 说明:批量时不会因为一个失败而全部失败,而是继续执行后续操作,在返回时按照执行的状态返回

    1.2K20
    领券