我需要在Kubernetes上运行一个突发性工作负载,这真的很难估计资源和限制。我目前只使用水平Pod Autoscaler,因此我的副本数量根据我每小时计划的作业的需求增加。我目前还将内存请求和限制设置为开放,并且自动缩放仅基于CPU。问题是,保留pod的内存限制会导致较高的pod驱逐率。我想知道我是否可以使用Vertical Pod Autoscaler来推荐Pod的资源分配,并保持创建的水平Pod Autoscaler对象同时运行。我在文档中找到的唯一参考资料是有一个名为多维Pod自动缩放的对象,但它只在1.19+版本中可用。
在我更新了后端代码(按下update to gcr.io)之后,我删除了pod。通常会出现一个新的pod。 但在今天之后,整个集群就会崩溃。我真的不能理解这里发生了什么(我没有碰任何其他的东西)。 我真的是在黑暗中寻找。我该从哪里开始找呢? 我看到日志显示: 0/2 nodes are available: 2 node(s) had taints that the pod didn't tolerate. 当我查这个的时候: kubectl describe node | grep -i taint
Taints: node.kubernetes.io/un
我有一个kubernetes集群,它运行一些遗留容器(windows容器)。为简单起见,假设容器一次最多可以处理5个请求,例如
handleRequest(){
requestLock(semaphore_Of_5)
sleep(2s)
return "result"
}
因此cpu不会出现峰值。我需要根据活跃连接的nr进行扩展
我可以从文档中看到
You can use Pod readiness probes to verify that backend Pods are working OK, so that kube-proxy in iptables
我正在尝试调出一个使用docker swarm成功运行的应用程序。我使用的是Kubernetes。我有一个主VirtualBox VM和一个节点,它们都是Ubuntu。使用正确设置的cpu、内存和限制的部署和服务(至少我认为是这样)。部署和服务成功,但kubectl describe pods始终将事件消息显示为 0/2 nodes are available: 1 node(s) had taint {node-role.kubernetes.io/master: }, that the pod didn't tolerate, 1 node(s) had taint {node.
我正在尝试在kubernetes中运行水平pod自动缩放程序,希望根据cpu默认指标自动缩放我的pod。为此,我安装了metrics服务器,之后我可以看到metrics - metrics.k8s.io/v1beta1 (kubectl api-versions)。然后我尝试部署prometheus-operator。但是在运行kubectl top node/pod时,我得到的错误是
error: Metrics not available for pod default/web-deployment-658cd556f8-ztf6c, age: 35m23.264812635s"