我有普罗米修斯配置和许多工作,我是通过HTTP抓取指标。但我有一份工作需要通过HTTPS抓取指标。
当我访问时:
https://ip-address:port/metrics
我能看到指标。我在prometheus.yml配置中添加的作业是:
- job_name: 'test-jvm-metrics'
scheme: https
static_configs:
- targets: ['ip:port']
当我重新启动Prometheus时,我可以在我的目标上看到一个错误,它说:
已超过
上下文截止日期
我读到scrape_timeout
可能是问题所在,但我将其设置为50秒,仍然是同样的问题。
导致此问题的原因是什么?如何解决?谢谢!
发布于 2018-04-18 15:12:54
我以前也遇到过同样的问题。在我的例子中,问题出在证书上,我通过添加以下内容来修复它:
tls_config:
insecure_skip_verify: true
你可以试试,也许能行得通。
发布于 2019-12-10 19:10:01
可能缺省的scrape_timeout值对您来说太短了
[ scrape_timeout: <duration> | default = 10s ]
为scrape_timeout设置更大的值。
scrape_configs:
- job_name: 'prometheus'
scrape_interval: 5m
scrape_timeout: 1m
发布于 2020-05-05 01:39:53
我遇到了类似的问题,所以我试着扩展我的scrape_timeout,但它什么也做不了--然而,使用promtool解释了这个问题
我的问题工作看起来是这样的:
- job_name: 'slow_fella'
scrape_interval: 10s
scrape_timeout: 90s
static_configs:
- targets: ['192.168.1.152:9100']
labels:
alias: sloooow
像这样检查你的配置:
/etc/prometheus $ promtool check config prometheus.yml
结果解释了问题,并指出了如何解决它:
Checking prometheus.yml
FAILED: parsing YAML file prometheus.yml: scrape timeout greater than scrape interval for scrape config with job name "slow_fella"
只需确保您的scrape_timeout足够长以容纳所需的scrape_interval即可。
https://stackoverflow.com/questions/49817558
复制相似问题