我在GCP上部署了一个Kubernetes集群,它有一个单节点、4个CPU和15‘s内存。有一些pod,其中所有pod都通过持久卷声明绑定到持久卷。我观察到pods已自动重启,持久卷中的数据丢失。
经过一些研究,我怀疑这可能是因为pod驱逐政策。当我使用kubectl describe pod时,我注意到了下面的错误。
0/1 nodes are available: 1 node(s) were not ready, 1 node(s) were out of disk space, 1 node(s) were unschedulable.
我的pods的重启策略是always。所以我认为
我在“仿生海狸”ubuntu上运行了一个有6个节点的kubernetes cluter (cluser-master & kubernetes lave0-4),我正在使用Weave安装kubernetes我遵循了并安装了weave,在干净地删除后安装了这里推荐的任何东西(它不再显示在我的pod中)
kubectl get pods --all-namespaces返回:
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-syste
我正在尝试确定是否存在大小大于10Mb的pod的日志文件,并对其进行报告。当我用10MB的limitBytes运行readNamespacedPodLog时,我得到的大小远远小于10MB,有时甚至只有一半。我知道readNamespacedPodLog可能会返回一点< or >指定的limitBytes,但它能有那么大的区别吗?
我使用的是kubernetes-client jar 3.0.0。我还尝试切换到4.0.0。
我打电话给你如下:
apiInstance.readNamespacedPodLog(podName,namespace,null,
false,1048
我的警报配置如下。
ALERT PoDHighCPUUsage
IF sum(rate(container_cpu_usage_seconds_total{container_label_io_kubernetes_pod_namespace!=""}[2m])) BY (kubernetes_pod_name, kubernetes_io_hostname, container_label_io_kubernetes_pod_namespace) >= 0.2
FOR 2m
LABELS {severity="criticalup"}
A
我在1.11上部署了3个节点的Kubernetes集群,并运行版本2.5.1的kubeadm和weave(CNI)。我提供了128个IP的编织CIDR IP范围。在两次重启节点后,一些pods卡在containerCreating状态。
运行kubectl describe pod <pod_name>后,您将看到以下错误:
Events:
Type Reason Age From Message
---- ------ ----