[用户在YugabyteDB Community Slack上发布的问题] 是否有指标端点,以便客户端可以确定服务器的负载情况,并相应地限制/回退请求。目前,/prometheus-metrics端点返回太多的指标,其中大部分是不相关的。我想要一种只获得我关心的指标的方法,这些指标是rpcs_in_queue
谈到了如何使用Azure Monitor来抓取普罗米修斯指标。此问题的范围仅限于K8集群监控(而不是部署在其上的工作负载/应用程序)。根据我的理解,甚至普罗米修斯也使用代理(也称为导出器)来发布由K8 API server (通常是/metrics端点)公开的指标,然后普罗米修斯通过这些端点抓取指标。Azure Monitor for containers也做同样的事情(从API
spring boot + spring集成应用程序由普罗米修斯通过在micrometer.io中构建进行监控。监测数据到达普罗米修斯,并可以以图形的形式显示。这工作得很好。 我的问题是我在普罗米修斯的数据中得到了一些空白。当应用程序负载过重时,就会出现这些差距。当应用程序非常繁忙时,locahost:8080/actuator/prometheus的响应时间变长是正常的。在我的例子中,无
我们正在为托管容器(Kubernetes)上的一个API(Kubernetes)创建一个新的托管服务器,并试图验证它是否能够处理至少相同数量的流量负载请求。我们从其中一个API开始,在这里我们需要每分钟处理至少140 k请求,所有端点加在一起。为了验证这一点,我创建了一个简单的JMeter测试,如下所示:
-----HTTP Request -> a GET request使用这种方法,