我有一个(内部) K8s部署(Python、TensorFlow、Guinicorn),它有大约60个副本和一个附加的K8s服务来分发传入的HTTP请求。这60个实例中的每个实例实际上一次只能处理一个HTTP请求(由于TensorFlow原因)。处理一个请求需要1到4秒。如果第二个请求被发送到pod,而它还在处理一个请求,那么第二个请求只会在Gunicorn ba
我正在尝试理解k8s中的内存请求。我观察到,当我为pod设置内存请求(例如,nginx,等于1Gi )时,它实际上只消耗了1Mi (我用kubectl top pods检查了它)。我的问题。我在节点上有2GiRAM,并将pod1和pod2的内存请求设置为1.5Gi,但它们实际上只消耗了1Mi内存。我启动了pod1,应该启动它,因为节点有2Gi内存,pod1请求只有