我配置了一个Kubernetes测试集群,运行在ESX上的VM上,这要归功于kubespray。在配置文件中,我告诉Kubespray使用calico配置我的集群,使用默认的CIDR作为CNI。
当我使用vSphere访问虚拟机时,或者在我的虚拟机上运行命令dmesg
时,我在我的主服务器上有以下输出:
[2866556.027837] IPVS: rr: TCP 10.233.13.12:443 - no destination available
[2866556.857464] IPVS: rr: TCP 10.233.13.12:443 - no destination available
[2866557.029471] IPVS: rr: TCP 10.233.13.12:443 - no destination available
[2866688.881160] IPVS: __ip_vs_del_service: enter
[2866689.018851] IPVS: __ip_vs_del_service: enter
[2866689.023030] IPVS: __ip_vs_del_service: enter
[2866689.188072] IPVS: __ip_vs_del_service: enter
[2866689.416153] IPVS: __ip_vs_del_service: enter
[2866689.420334] IPVS: __ip_vs_del_service: enter
[2866692.005599] IPVS: __ip_vs_del_service: enter
[2866692.010260] IPVS: __ip_vs_del_service: enter
[2866692.257045] IPVS: __ip_vs_del_service: enter
[2866692.265034] IPVS: __ip_vs_del_service: enter
[2866692.267455] IPVS: __ip_vs_del_service: enter
[2866692.267493] IPVS: __ip_vs_del_service: enter
[2866916.815472] IPVS: rr: TCP 10.233.49.127:443 - no destination available
[2866916.820841] IPVS: rr: TCP 10.233.49.127:443 - no destination available
[2866916.823418] IPVS: rr: TCP 10.233.49.127:443 - no destination available
[2866916.824167] IPVS: rr: TCP 10.233.49.127:443 - no destination available
[2866916.826243] IPVS: rr: TCP 10.233.49.127:443 - no destination available
这是我的worker的输出
[1207664.350374] IPVS: rr: TCP 10.233.3.61:8080 - no destination available
[1207664.422584] IPVS: rr: TCP 10.233.3.61:8080 - no destination available
[1207667.108560] net_ratelimit: 13 callbacks suppressed
[1207667.108567] IPVS: rr: TCP 10.233.3.61:8080 - no destination available
[1207667.217235] IPVS: rr: TCP 10.233.3.61:8080 - no destination available
[1207667.274593] IPVS: rr: TCP 10.233.3.61:8080 - no destination available
[1207667.331658] IPVS: rr: TCP 10.233.3.61:8080 - no destination available
[1207668.218597] IPVS: rr: TCP 10.233.3.61:8080 - no destination available
[1207668.334613] IPVS: rr: TCP 10.233.3.61:8080 - no destination available
[1207675.500914] IPVS: rr: TCP 10.233.49.141:8086 - no destination available
[1207676.502566] IPVS: rr: TCP 10.233.49.141:8086 - no destination available
[1207676.628377] IPVS: rr: TCP 10.233.49.141:8086 - no destination available
[1208009.456587] blk_update_request: I/O error, dev fd0, sector 0
[1208009.924355] blk_update_request: I/O error, dev fd0, sector 0
[1208058.699578] blk_update_request: I/O error, dev fd0, sector 0
[1208240.706522] IPVS: Creating netns size=2048 id=289
[1208241.432437] IPv6: ADDRCONF(NETDEV_UP): eth0: link is not ready
[1208241.445496] IPv6: ADDRCONF(NETDEV_UP): cali6ef7aa1f11f: link is not ready
[1208241.447406] IPv6: ADDRCONF(NETDEV_CHANGE): cali6ef7aa1f11f: link becomes ready
[1208241.447469] IPv6: ADDRCONF(NETDEV_CHANGE): eth0: link becomes ready
我真的很难理解这些日志。对于具有IPVS : rr
消息的地址,它似乎链接到calico,并且每个ip地址都对应于集群中的一个服务IP。但我没有在[calico-rr]
下的清单文件中配置任何节点,因为它是可选的,它在这里是为了改善大型集群之间的通信。
[all]
m1 ansible_host=x.x.x.x ip=x.x.x.x
m2 ansible_host=x.x.x.x ip=x.x.x.x
w1 ansible_host=x.x.x.x ip=x.x.x.x
w2 ansible_host=x.x.x.x ip=x.x.x.x
w3 ansible_host=x.x.x.x ip=x.x.x.x
[kube-master]
m1
m2
[etcd]
m1
m2
w1
[kube-node]
w1
w2
w3
[calico-rr]
[k8s-cluster:children]
kube-master
kube-node
calico-rr
据我所知,这是在我应用yaml文件安装linkerd时,在配置新的pod和服务时出现的输出。这是否与就绪探测器相关联?在服务/pod就绪之前弹出消息?
真正的问题是,这些日志对vSphere上的控制台造成了垃圾邮件,我真的不知道如何摆脱它们。
我在其他帖子上搜索了更多信息,但我发现的帮助不大。
更新:
我对IPVS有了更多的了解: rr错误。https://kubernetes.io/blog/2018/07/09/ipvs-based-in-cluster-load-balancing-deep-dive/它链接到kube-proxy使用的IPVS负载均衡。
但是我仍然不知道如何通过vSphere不把这些日志放到我的ESX控制台上。
更新2:
对于Kubernetes和guide的安装,我只是遵循下面的指南,按照上面的描述修改了清单文件。
虚拟机操作系统: Centos 7.7 1908
Kubernetes版本: 1.16.3
Kubespray版本: release-2.12
库贝斯普雷入门指南:https://github.com/kubernetes-sigs/kubespray/blob/master/docs/getting-started.md
发布于 2020-09-09 23:53:19
我在docker swarm上收到了这个错误消息,它似乎比kubernetes或swarm更与docker相关。特别是,在具有两个网关的主机上发生网络中断后,群/ docker服务日志-command失败。在将默认路由切换到gw2后,我无法再从swarm (docker服务)读取日志,但在本地docker日志工作正常。
我通过在swarm-master上重新启动docker解决了这个问题。
https://stackoverflow.com/questions/59842732
复制相似问题