Docker
与Kubernetes
是什么关系?这可能是我们刚接触Kubernetes
时都有的一个疑问。那么Kubernetes
是什么?
Kubernetes
是一个容器集群编排管理系统,用于实现容器集群的自动化部署、自动扩缩容等功能。Docker
提供用于运行应用程序的容器技术,而Kubernetes
本身并不提供用于运行应用程序的容器,而是负责管理容器。
了解Docker
与Kubernetes
的关系之后,就能理解为什么我们要先学习Docker
再学习Kubernetes
,这与先学习Spring
框架才能更好地学习Spring Boot
、Spring Cloud
是一样的。
作为开发,我们为什么要了解容器技术,这不是运维该学习的吗?作为开发者,只有足够了解容器技术,才能做好技术选型,以及开发部署在Kubernetes
容器服务之上的应用应该要注意哪些问题。如果运维不了解代码,开发也不了解Kubernetes
,谁能解决将服务迁移到Kubernetes
上遇到的各种问题呢?
笔者学习Kubernetes
的路线,分享给大家:
Kubernetes in Action
中文版》Spring Cloud
与Kubernetes
云原生微服务实战》学习Kubernetes
首先要了解Kubernetes
的架构,了解一些“概念”,再了解配置文件。配置文件这块对初学者来说是最难理解的,因此推荐大家阅读《Kubernetes in Action
中文版》这本书,跟着例子一步步掌握一些配置文件中每种kind
的作用,每个配置项的作用是什么。
Kubernetes
管理所有可用的物理机,以阿里云容器服务Kubernetes
为例,Kubernetes
负责管理一堆ECS
实例,这需要我们在创建Kubernetes
集群时,购买足够的ECS
实例,至少两台。后续也可将新购买的ECS
实例加到Kubernetes
集群,由Kubernetes
管理。
开发者和运维都不需要知道一个应用程序部署在哪个ECS
实例上,只需要指定运行应用程序所需要的cpu
、内存等资源,Kubernetes
会根据要求计算出满足条件的节点(ECS
),并在节点(ECS
)上从镜像仓库拉取应用程序的镜像创建容器并运行容器,并且监控容器的整个生命周期。我们可以把Kubernetes
管理的所有节点(ECS
)看成一个大的物理机,这台大的物理机的cpu
、内存是所有节点(ECS
)的总和。
(图片来之《Kubernetes in Action
》)
如上图所示,开发者只需要将应用构造成镜像,并将镜像push
到远程镜像仓库,然后编写一个配置文件,在配置文件中描述应用程序镜像运行所需要的资源、镜像从哪拉取等,使用kubectl
调用Kubernetes
提供的API
就能将应用程序部署到Kubernetes
。
Kubernetes
由两种类型的节点组成。
(图片来自《Kubernetes in Action
》)
一种是主节点Master
,负责控制和管理整个集群,为实现高可用,主节点也要求部署集群。主节点上会部署一些组件,这些组件可以运行在单个主节点上,或者通过副本分别部署在多个主节点上,实现高可用。如基于Reft
协议实现的数据强一致性存储服务etcd
、提供给我们使用的Kubernetes API
服务、调度应用部署的Scheculer
组件、执行集群功能的Controller Manager
组件。这些组件我们可以先这么简单了解,暂时不用过于深究。
另一种是工作节点,运行用户实际部署的应用。
假设我们在阿里云购买了托管的Kubernetes
服务,那么主节点就由阿里云托管,而工作节点就是我们购买的ECS
实例,一个集群中有多少个ECS
实例就是有多少个工作节点。
工作节点就是运行容器的机器,除了运行用于运行我们部署的应用程序的容器外,每个工作节点上还会运行一些组件,这些组件负责运行、监控和管理应用服务。如Docker
、Kubelet
、Kube-proxy
。Docker
我们已经很熟悉了;Kubelet
负责与主节点的Kubernetes API
服务通信,并管理它所在的工作节点的容器;Kube-proxy
负责组件之间的负载均衡网络流量。
上图是根据到目前为止我们对Kubernetes
的了解所画出的一个应用部署流程图。
psuh
到镜像仓库;yaml
配置文件);kubectl
调用Kubernetes API
将应用程序描述文件提交给Kubernetes
;Scheduler
组件根据描述文件调度工作节点部署应用程序;Container runtime
负责从镜像仓库拉取镜像、创建容器并运行容器;在实际项目部署时,我们可能最关系也最难理解就是网络和容器这部分内容。比如,在不使用Kubernetes
时,我们部署一个需要SSD
资源的应用程序时,先购买SSD
挂载在该服务器上,而使用Kubernetes
时,我们要告诉Kubernetes
只在具有SSD
的节点中选择节点部署应用。网络和容器卷的内容还是很多很复杂的,本篇就不过多介绍,后续文章中再介绍,当然也只是简单的理解和怎么去用,因为笔者目前理解的也不多。
需要了解的一些概念
namespaces
:用于区分不同的资源,如测试环境资源、生产环境资源;当然也可以使用labels
区分。不指定namespaces
则默认使用default
,如果使用非defalut
名称空间,则在使用kubectl
创建secret
、创建ServiceAccount
等都需要明确指定namespaces
。
节点(Node
):节点就是实际的机器或者虚拟机,例如阿里云ECS
。
Pod
:Pod
是Kubernetes
创建或部署的最小基本单位,一个Pod
封装一个或多个应用容器,存储资源、一个独立的网络IP
以及管理控制容器运行方式的策略选项。
(图片来自《Kubernetes in Action
》)
如上图所示,当一个Pod
包含多个容器时,这些容器总是运行于同一个工作节点上,不会跨越多个工作节点。例如我们部署一个java
程序,可以在一个Pod
中运行多个该java
程序的容器。Pod
可以封装紧密耦合的应用,它们需要由多个容器组成,它们之间能够共享资源,例如前后端部署在一起(这个例子不恰当)。而对于我们开发java
微服务应用来说,一般一个Pod
只会运行一个容器,因此初学时可以不用过多去纠结这些概念。
Service
:Service
抽象的概念,是Pod
的逻辑分组,这一组Pod
能够被Service
访问到,通常是通过Label
、Selector
实现。例如:
apiVersion: v1
kind: Service
metadata:
name: demo-srv-service
namespace: sit
spec:
selector:
app: demo-srv
env: sit
ports:
- protocol: TCP
port: 80
targetPort: 8080
通过selector
匹配app
为demo-srv
、env
为sit
的一组Pod
,这组Pod
对应demo-srv-service
这个Service
。更简单一点理解,假设我们部署一个java
程序,一个Pod
只启动一个该java
程序的容器,那么启动多个该java
程序就对应多个Pod
,而这组Pod
对应同一个Service
。
ReplicationController
:ReplicationController
(简称RC
)是确保用户定义的Pod
副本数保持不变。在用户定义范围内,如指定一个java
程序部署的集群数量为3
,如果Pod
超过3
(例如手动启动),则RC
会终止额外的Pod
,如果少于3
(例如内存溢出导致),RC
会创建新的Pod
,始终保持在定义范围。
ReplicaSet
:ReplicaSet
简称RS
,是RC
的升级版本。RS
和RC
之间的唯一区别是对选择器(Selector
)的支持,这里不做过多介绍。
Deployments
:Deployment
为Pod
和ReplicaSet
提供声明式更新。你只需要在Deployment
中描述你想要的目标状态是什么,Deployment Controller
就会帮你将Pod
和ReplicaSet
的实际状态改变到你的目标状态。
apiVersion: apps/v1
kind: Deployment
metadata:
name: demo-srv-deployment
namespace: sit
spec:
# 副本数,运行多少个`Pod`
replicas: 3
# 选择器,使用标签匹配
selector:
matchLabels:
app: demo-srv
template:
metadata:
# 标签
labels:
app: demo-srv
env: sit
spec:
# 容器,指定多个容器就会在一个`Pod`内运行多个容器
containers:
- name: demo-srv
image: registry.cn-shenzhen.aliyuncs.com/wujiuye/demo-srv
DaemonSet
:确保每个节点(物理机器或者虚拟机)上只运行一个该应用的Pod
。如阿里云的实现的日记收集,就是在每个节点上运行一个用于收集日记的应用程序容器,对应一个Pod
。
网络通信
Pod
之间的网络通信:
Kubernetes
集群中的所有Pod
都在同一个共享网络地址空间中,这意味着每个Pod
都可以通过其他Pod
的IP
地址来实现相互访问。这也表示它们之间没有NAT
网关。当两个Pod
彼此之间发送网络数据包时,它们都会将对方的实际IP
地址看作数据包中的源IP
。
无论是将两个Pod
安排在单一的还是不同的工作节点上,同时不管实际节点间的网络拓扑结构如何,这些Pod
内的容器都能够像在局域网上的计算机一样通信。
Service
之间的网络通信:
Kubernetes Service
为一组功能相同的Pod
提供单一不变的接入点。当服务存在时,它的IP
地址和端口不会改变。客户端通过IP
地址和端口号建立连接,这些连接会被路由到提供该服务的任意一个Pod
上,会实现负载均衡。通过这种方式,客户端不需要知道每个单独的提供服务的Pod
的地址,这样这些Pod
就可以在集群中随时被创建或移除。
假设现有一个项目,该项目有两个微服务,分别是demo-srv
、demo-cap
。现在将这两个服务部署到阿里云容器服务Kubernetes
上,在控制台的服务列表页可以看到,这两个服务都有一个集群IP
,不管这个两个服务部署多少个Pod
,也不管Pod
怎么变,其它服务都可以通过这个集群IP
访问背后的Pod
,当然访问背后Pod
也是实现负载均衡的。
也是因为如此,我们开发微服务实现的服务发现都是基于Service
的,那么在应用程序中实现负载均衡就显得多余了。
类型:
ClusterIP
:通过集群的内部IP
暴露服务,选择该值,服务只能够在Kubernetes
集群内部可以访问。NodePort
:通过每个Node
上的IP
和静态端口(NodePort)暴露服务。NodePort
服务会路由到ClusterIP
服务,这个ClusterIP
服务会自动创建。通过请求<NodeIP>:<NodePort>
,可以从集群的外部访问一个NodePort
服务。LoadBalancer
:如使用阿里云提供的负载均衡器,可以向外部暴露服务。外部的负载均衡器可以路由到NodePort
服务和ClusterIP
服务。本篇就介绍到这,Kubernetes
要学的知识点很多,但作为开发,我们可能不会去过多的关注一些细节,本篇介绍的知识点是笔者认为作为开发应掌握的知识的。网络、容器卷这部署建议多了解一些,网络有关服务间的调用,而容器卷有关日记的打印、文件存储,如果使用阿里云容器服务,那么日记这块我们可以不输出到文件,使用阿里提供的日记服务收集日记。但如果需要持久化存储的服务,就必须要了解容器卷Volume
。
不懂的概念可以查阅官方文档:http://docs.kubernetes.org.cn
想要深入学习还是推荐阅读《Kubernetes in Action
》中文版