如何部署 Kubernetes 集群

Kubernetes是一个容器编排系统,可以大规模管理容器。Kubernetes最初由谷歌根据其在生产中运行容器的经验开发而成,是一个开源的,并由世界各地的社区积极开发。Kubeadm自动安装和配置Kubernetes组件,例如API服务器,Controller Manager和Kube DNS。但是,它不会创建用户或处理操作系统级依赖关系及其配置的安装。对于这些初步任务,可以使用AnsibleSaltStack等配置管理工具。使用这些工具可以更轻松地创建其他集群或重新创建现有集群,并且不易出错。

在本指南中,您将使用Ansible和Kubeadm从头开始设置Kubernetes集群,然后将容器化的Nginx应用程序部署到它。如果您还没有腾讯云的服务器,可以先点击这里进行免费套餐的试用。免费套餐包含企业版和个人版,超过11款热门产品和42款长期免费的云产品可以供您选择。如果您有长期搭建服务器的需求的话,可以点击这里进行服务器的购买,现在的促销力度很大哦。

目标

您的群集将包含以下物理资源:

  • 一个主节点

主节点(Kubernetes中的节点指服务器)负责管理集群的状态。它运行Etcd,它在将工作负载调度到工作节点的组件之间存储集群数据。

  • 两个工作节点

工作节点是运行工作负载(即容器化应用程序和服务)的服务器。一旦工作节点分配了工作负载,它将继续运行您的工作负载,即使主计划在调度完成后停止工作也是如此。通过添加工作人员可以增加群集的容量。

完成本指南后,您将拥有一个可以运行容器化应用程序的集群,前提是集群中的服务器具有足够的CPU和RAM资源供应用程序使用。几乎任何传统的Unix应用程序(包括Web应用程序,数据库,守护程序和命令行工具)都可以进行容器化,并在集群上运行。群集本身将在每个节点上消耗大约300-500MB的内存和10%的CPU。

设置群集后,您将部署Web服务器Nginx以确保它正确运行工作负载。

准备

  • 本地Linux / macOS / BSD计算机上的SSH密钥对。
  • 运行Ubuntu 18.04且内存至少为1GB的三台服务器。您应该能够以SSH密钥对的root用户身份SSH到每个服务器。
  • 将Ansible安装在您的本地计算机上。
  • 熟悉Ansible剧本。
  • 了解如何从Docker镜像启动容器。

第1步 - 设置工作区目录和Ansible清单文件

在本节中,您将在本地计算机上创建一个用作工作区的目录。您将在本地配置Ansible,以便它可以与远程服务器上的命令进行通信并执行命令。完成后,您将创建一个包含库存信息的文件hosts,例如服务器的IP地址和每个服务器所属的组。

在三台服务器中,一台服务器将显示为IP是master_ip的主服务器。另外两台服务器将是工作节点,并拥有IP worker_1_ipworker_2_ip

创建一个在本地计算机的主目录中指定的目录~/kube-cluster并使用cd命令进入该目录:

mkdir ~/kube-cluster
cd ~/kube-cluster

该目录将是本教程其余部分的工作区,并包含所有Ansible剧本。它也将是您将在其中运行所有本地命令的目录。

nano或您喜欢的文本编辑器创建一个名为~/kube-cluster/hosts的文件:

nano ~/kube-cluster/hosts

将以下文本添加到文件中,该文件将指定有关集群逻辑结构的信息:

[masters]
master ansible_host=master_ip ansible_user=root
​
[workers]
worker1 ansible_host=worker_1_ip ansible_user=root
worker2 ansible_host=worker_2_ip ansible_user=root
​
[all:vars]
ansible_python_interpreter=/usr/bin/python3

您可能还记得Ansible中的库存文件用于指定服务器信息,例如IP地址,远程用户和服务器分组,以作为执行命令的单个单元进行目标。~/kube-cluster/hosts将是您的库存文件,并且您已向其添加了两个Ansible组(主服务器工作服务器),用于指定集群的逻辑结构。

服务器组中,有一个名为“master”的服务器条目,其中列出了主节点的IP(master_ip),并指定Ansible应以root用户身份运行远程命令。

同样,在工作服务器组中,有两个工作服务器(worker_1_ipworker_2_ip)条目,它们也指定ansible_user为root用户。

该文件的最后一行告诉Ansible使用远程服务器的Python 3解释器进行管理操作。

添加文本后保存并关闭文件。

使用组设置服务器清单后,我们继续安装操作系统级依赖关系并创建配置设置。

步骤2 - 在所有远程服务器上创建非root用户

在本节中,您将在所有服务器上创建一个具有sudo权限的非root用户,以便您可以作为非特权用户手动SSH连接到这些用户。例如,如果您希望通过命令查看系统信息(例如top/htop,用以查看正在运行的容器列表或更改root拥有的配置文件),这将非常有用。这些操作通常在维护群集期间执行,并且使用非root用户执行此类任务可以最大程度地降低修改或删除重要文件或无意中执行其他危险操作的风险。

创建工作空间中指定的文件~/kube-cluster/initial.yml

nano ~/kube-cluster/initial.yml

接下来,将以下操作添加到该文件以创建在所有服务器上具有sudo权限的非root用户。Ansible中的操作是针对特定服务器和组执行的一系列步骤。以下操作将创建一个非root sudo用户:

- hosts: all
  become: yes
  tasks:
    - name: create the 'ubuntu' user
      user: name=ubuntu append=yes state=present createhome=yes shell=/bin/bash
​
    - name: allow 'ubuntu' to have passwordless sudo
      lineinfile:
        dest: /etc/sudoers
        line: 'ubuntu ALL=(ALL) NOPASSWD: ALL'
        validate: 'visudo -cf %s'
​
    - name: set up authorized keys for the ubuntu user
      authorized_key: user=ubuntu key="{{item}}"
      with_file:
        - ~/.ssh/id_rsa.pub

这是这个剧本的作用细分:

  • 创建非root用户ubuntu
  • 配置sudoers文件以允许ubuntu用户在没有密码提示的情况下运行sudo命令。
  • 将本地计算机中的公钥(通常是~/.ssh/id_rsa.pub)添加到远程用户ubuntu的授权密钥列表中。这将允许您以ubuntu用户身份SSH到每个服务器。

添加文本后保存并关闭文件。

接下来,通过本地运行执行剧本:

ansible-剧本 -i hosts ~/kube-cluster/initial.yml

该命令将在两到五分钟内完成。完成后,您将看到类似于以下内容的输出:

PLAY [all] ****
​
TASK [Gathering Facts] ****
ok: [master]
ok: [worker1]
ok: [worker2]
​
TASK [create the 'ubuntu' user] ****
changed: [master]
changed: [worker1]
changed: [worker2]
​
TASK [allow 'ubuntu' user to have passwordless sudo] ****
changed: [master]
changed: [worker1]
changed: [worker2]
​
TASK [set up authorized keys for the ubuntu user] ****
changed: [worker1] => (item=ssh-rsa AAAAB3...)
changed: [worker2] => (item=ssh-rsa AAAAB3...)
changed: [master] => (item=ssh-rsa AAAAB3...)
​
PLAY RECAP ****
master                     : ok=5    changed=4    unreachable=0    failed=0   
worker1                    : ok=5    changed=4    unreachable=0    failed=0   
worker2                    : ok=5    changed=4    unreachable=0    failed=0   

现在初步设置已完成,您可以继续安装特定于Kubernetes的依赖项。

第3步 - 安装Kubernetetes的依赖项

在本节中,您将使用Ubuntu的软件包管理器安装Kubernetes所需的操作系统级软件包。这些包是:

  • Docker - 容器运行时。它是运行容器的组件。
  • kubeadm - CLI工具,以标准方式安装和配置群集的各个组件。
  • kubelet - 在所有节点上运行并处理节点级操作的系统服务/程序。
  • kubectl - 用于通过其API服务器向集群发出命令的CLI工具。

创建工作空间中指定的文件~/kube-cluster/kube-dependencies.yml

nano ~/kube-cluster/kube-dependencies.yml

将以下操作添加到文件以将这些包安装到您的服务器:

- hosts: all
  become: yes
  tasks:
   - name: install Docker
     apt:
       name: docker.io
       state: present
       update_cache: true
​
   - name: install APT Transport HTTPS
     apt:
       name: apt-transport-https
       state: present
​
   - name: add Kubernetes apt-key
     apt_key:
       url: https://packages.cloud.google.com/apt/doc/apt-key.gpg
       state: present
​
   - name: add Kubernetes' APT repository
     apt_repository:
      repo: deb http://apt.kubernetes.io/ kubernetes-xenial main
      state: present
      filename: 'kubernetes'
​
   - name: install kubelet
     apt:
       name: kubelet
       state: present
       update_cache: true
​
   - name: install kubeadm
     apt:
       name: kubeadm
       state: present
​
- hosts: master
  become: yes
  tasks:
   - name: install kubectl
     apt:
       name: kubectl
       state: present

剧本中的第一部戏剧如下:

  • 安装Docker,容器运行时。
  • 安装apt-transport-https,允许您将外部HTTPS源添加到APT源列表。
  • 添加Kubernetes APT存储库的apt-key进行密钥验证。
  • 将Kubernetes APT存储库添加到远程服务器的APT源列表中。
  • 安装kubeletkubeadm

第二个游戏包含安装kubectl在主节点上的单个任务。

完成后保存并关闭文件。

接下来,通过本地运行执行剧本:

ansible-剧本 -i hosts ~/kube-cluster/kube-dependencies.yml

完成后,您将看到类似于以下内容的输出:

PLAY [all] ****
​
TASK [Gathering Facts] ****
ok: [worker1]
ok: [worker2]
ok: [master]
​
TASK [install Docker] ****
changed: [master]
changed: [worker1]
changed: [worker2]
​
TASK [install APT Transport HTTPS] *****
ok: [master]
ok: [worker1]
changed: [worker2]
​
TASK [add Kubernetes apt-key] *****
changed: [master]
changed: [worker1]
changed: [worker2]
​
TASK [add Kubernetes' APT repository] *****
changed: [master]
changed: [worker1]
changed: [worker2]
​
TASK [install kubelet] *****
changed: [master]
changed: [worker1]
changed: [worker2]
​
TASK [install kubeadm] *****
changed: [master]
changed: [worker1]
changed: [worker2]
​
PLAY [master] *****
​
TASK [Gathering Facts] *****
ok: [master]
​
TASK [install kubectl] ******
ok: [master]
​
PLAY RECAP ****
master                     : ok=9    changed=5    unreachable=0    failed=0   
worker1                    : ok=7    changed=5    unreachable=0    failed=0  
worker2                    : ok=7    changed=5    unreachable=0    failed=0  

执行后,Docker,将在所有远程服务器的安装kubeadmkubeletkubectl不是必需组件,它仅用于执行集群命令。在此上下文中仅在主节点上安装它是有意义的,因为您将仅从主节点运行kubectl命令。但请注意,kubectl命令可以从任何工作节点运行,也可以从可以安装和配置为指向集群的任何计算机运行。

现在安装了所有系统依赖项。让我们设置主节点并初始化集群。

第4步 - 设置主节点

在本节中,您将设置主节点。创建任何剧本之前,然而,它的价值涵盖了几个概念,如豆荚波德网络插件,因为集群将都包括。

pod是运行一个或多个容器的原子单元。这些容器共享资源,例如文件卷和网络接口。Pod是Kubernetes中的基本调度单元:pod中的所有容器都保证在调度pod的同一节点上运行。

每个pod都有自己的IP地址,一个节点上的pod应该能够使用pod的IP访问另一个节点上的pod。单个节点上的容器可以通过本地接口轻松进行通信。然而,pod之间的通信更复杂,并且需要单独的网络组件,该组件可以透明地将流量从一个节点上的pod传送到另一个节点上的pod。

此功能由pod网络插件提供。对于这个群集,您将使用Flannel,一个稳定且高性能的选项。

创建一个在本地计算机上命名为master.yml的可读剧本 :

nano ~/kube-cluster/master.yml

将以下操作添加到文件中以初始化集群并安装Flannel:

- hosts: master
  become: yes
  tasks:
    - name: initialize the cluster
      shell: kubeadm init --pod-network-cidr=10.244.0.0/16 >> cluster_initialized.txt
      args:
        chdir: $HOME
        creates: cluster_initialized.txt
​
    - name: create .kube directory
      become: yes
      become_user: ubuntu
      file:
        path: $HOME/.kube
        state: directory
        mode: 0755
​
    - name: copy admin.conf to user's kube config
      copy:
        src: /etc/kubernetes/admin.conf
        dest: /home/ubuntu/.kube/config
        remote_src: yes
        owner: ubuntu
​
    - name: install Pod network
      become: yes
      become_user: ubuntu
      shell: kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.9.1/Documentation/kube-flannel.yml >> pod_network_setup.txt
      args:
        chdir: $HOME
        creates: pod_network_setup.txt

这是这个操作的细分:

  • 第一个任务通过运行kubeadm init初始化集群。传递参数--pod-network-cidr=10.244.0.0/16指定将从中分配pod IP的私有子网。法兰绒默认使用上述子网; 我们告诉kubeadm使用相同的子网。
  • 第二个任务在/home/ubuntu创建一个.kube目录。此目录将保存配置信息,例如连接到群集所需的管理密钥文件以及群集的API地址。
  • 第三个任务将/etc/kubernetes/admin.conf生成的文件kubeadm init复制到非root用户的主目录。这将允许您用kubectl来访问新创建的群集。
  • 最后一个任务运行kubectl apply以安装Flannelkubectl apply -f descriptor.[yml|json]是告诉kubectl去创建descriptor.[yml|json]文件中描述的对象的语法。该kube-flannel.yml文件包含在群集中设置Flannel所需的对象的说明。

完成后保存并关闭文件。

通过运行以下命令在本地执行剧本:

ansible-剧本 -i hosts ~/kube-cluster/master.yml

完成后,您将看到类似于以下内容的输出:

PLAY [master] ****
​
TASK [Gathering Facts] ****
ok: [master]
​
TASK [initialize the cluster] ****
changed: [master]
​
TASK [create .kube directory] ****
changed: [master]
​
TASK [copy admin.conf to user's kube config] *****
changed: [master]
​
TASK [install Pod network] *****
changed: [master]
​
PLAY RECAP ****
master                     : ok=5    changed=4    unreachable=0    failed=0  

要检查主节点的状态,请使用以下命令通过SSH连接到该节点:

ssh ubuntu@master_ip

进入主节点后,执行:

kubectl get nodes

您现在将看到以下输出:

NAME      STATUS    ROLES     AGE       VERSION
master    Ready     master    1d        v1.11.1

输出表明master节点已完成所有初始化任务,并且处于可以开始接受工作节点并执行发送到API服务器的任务的状态Ready。您现在可以从本地计算机添加工作程序。

第5步 - 设置工作节点

将工作程序添加到集群涉及在每个集群上执行单个命令。此命令包括必要的群集信息,例如主服务器API服务器的IP地址和端口以及安全令牌。只有传入安全令牌的节点才能加入群集。

导航回您的工作区并创建一个名为workers.yml的剧本:

nano ~/kube-cluster/workers.yml

将以下文本添加到文件中以将工作程序添加到集群:

- hosts: master
  become: yes
  gather_facts: false
  tasks:
    - name: get join command
      shell: kubeadm token create --print-join-command
      register: join_command_raw
​
    - name: set join command
      set_fact:
        join_command: "{{ join_command_raw.stdout_lines[0] }}"
​
​
- hosts: workers
  become: yes
  tasks:
    - name: join cluster
      shell: "{{ hostvars['master'].join_command }} >> node_joined.txt"
      args:
        chdir: $HOME
        creates: node_joined.txt

以下是剧本的作用:

  • 第一个play获取需要在worker节点上运行的join命令。该命令将采用以下格式:kubeadm join --token <token> <master-ip>:<master-port> --discovery-token-ca-cert-hash sha256:<hash>。一旦它获得具有适当的令牌哈希值的实际命令,该任务就将其设置为事实,以便下一个游戏将能够访问该信息。
  • 第二个游戏有一个任务,它在所有工作节点上运行join命令。完成此任务后,两个工作节点将成为群集的一部分。

完成后保存并关闭文件。

通过本地运行执行剧本:

ansible-剧本 -i hosts ~/kube-cluster/workers.yml

完成后,您将看到类似于以下内容的输出:

PLAY [master] ****
​
TASK [get join command] ****
changed: [master]
​
TASK [set join command] *****
ok: [master]
​
PLAY [workers] *****
​
TASK [Gathering Facts] *****
ok: [worker1]
ok: [worker2]
​
TASK [join cluster] *****
changed: [worker1]
changed: [worker2]
​
PLAY RECAP *****
master                     : ok=2    changed=1    unreachable=0    failed=0   
worker1                    : ok=2    changed=1    unreachable=0    failed=0  
worker2                    : ok=2    changed=1    unreachable=0    failed=0  

通过添加工作节点,您的群集现在已完全设置并正常运行,工作人员可以随时运行工作负载。在安排应用程序之前,让我们验证群集是否按预期工作。

第6步 - 验证群集

集群有时可能在安装过程中失败,因为节点已关闭或主服务器与工作服务器之间的网络连接无法正常工作。让我们验证集群并确保节点正常运行。

您需要从主节点检查群集的当前状态,以确保节点已准备就绪。如果从主节点断开连接,可以使用以下命令通过SSH重新连接到主节点:

ssh ubuntu@master_ip

然后执行以下命令以获取集群的状态:

kubectl get nodes

您将看到类似于以下内容的输出:

NAME      STATUS    ROLES     AGE       VERSION
master    Ready     master    1d        v1.11.1
worker1   Ready     <none>    1d        v1.11.1 
worker2   Ready     <none>    1d        v1.11.1

如果所有的节点都具有STATUS的价值Ready,这意味着它们是集群的一部分,并准备运行的工作负载。

但是,如果几个节点拥有NotReady作为STATUS,它可能意味着工作节点还没有完成自己的设置。等待大约五到十分钟再重新运行kubectl get nodes并检查新输出。如果一些节点仍具有NotReady状态,则可能必须验证并重新运行前面步骤中的命令。

现在您的集群已成功验证,让我们在集群上安排一个示例Nginx应用程序。

步骤7 - 在群集上运行应用程序

您现在可以将任何容器化应用程序部署到您的群集。为了保持熟悉,让我们使用部署服务部署Nginx ,以了解如何将此应用程序部署到集群。如果更改Docker镜像名称和任何相关标志(例如portsvolumes),您也可以将以下命令用于其他容器化应用程序。

仍在主节点内,执行以下命令以创建名为nginx的部署:

kubectl run nginx --image=nginx --port 80

部署是一种Kubernetes对象,可确保始终根据已定义的模板运行指定数量的pod,即使pod在群集生命周期内崩溃也是如此。上面的部署将使用Docker注册表的Nginx Docker Image]创建一个包含一个容器的pod 。

接下来,运行以下命令以创建将公开公开应用程序的名为nginx的服务。它将通过NodePort实现,该方案将通过在群集的每个节点上打开的任意端口访问pod:

kubectl expose deploy nginx --port 80 --target-port 80 --type NodePort

服务是另一种类型的Kubernetes对象,它向内部和外部客户端公开集群内部服务。它们还能够对多个pod进行负载均衡请求,并且是Kubernetes中不可或缺的组件,经常与其他组件交互。

运行以下命令:

kubectl get services

这将输出类似于以下内容的文本:

NAME         TYPE        CLUSTER-IP       EXTERNAL-IP           PORT(S)             AGE
kubernetes   ClusterIP   10.96.0.1        <none>                443/TCP             1d
nginx        NodePort    10.109.228.209   <none>                80:nginx_port/TCP   40m

从上面输出的第三行,您可以检索运行Nginx的端口。Kubernetes将分配一个大于30000自动的随机端口,同时确保该端口尚未受到其他服务的约束。

要测试一切正常,请访问http://worker_1_ip:nginx_port或通过本地计算机上的浏览器访问http://worker_2_ip:nginx_port。您将看到Nginx熟悉的欢迎页面。

如果要删除Nginx应用程序,请先从主节点删除nginx服务:

kubectl delete service nginx

运行以下命令以确保已删除该服务:

kubectl get services

您将看到以下输出:

NAME         TYPE        CLUSTER-IP       EXTERNAL-IP           PORT(S)        AGE
kubernetes   ClusterIP   10.96.0.1        <none>                443/TCP        1d

然后删除部署:

kubectl delete deployment nginx

运行以下命令以确认这是否有效:

kubectl get deployments
No resources found.

结论

在本指南中,您已使用Kubeadm和Ansible在Ubuntu 18.04上成功建立了Kubernetes集群,以实现自动化。如果您想知道如果要在集群设置的情况下如何处理集群,那么下一步就是将自己的应用程序和服务部署到集群上。您可以研究的其他重要概念是Volumes,Ingresses和Secrets,所有这些在部署生产应用程序时都派上用场。您也可以直接尝试使用腾讯云的容器服务TKE,帮助您搭建稳定、安全、高效、灵活扩展、简单易用的 Kubernetes 容器管理平台。

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

编辑于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏IT民工生存指南

初试 Kubernetes -集群搭建

主节点(个人很喜欢腾讯云的主机自动命名,内网IP之类的都已经在hostname里了,不容易出错)

27240
来自专栏GAN&CV

VNC连不上服务器,无法远程控制

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_25737169/article/d...

1.4K10
来自专栏数据和云

YH12:一篇文章读懂SCAN

单客户端访问名称(SCAN)是Oracle RAC环境中使用的功能,为客户端提供访问集群中运行的任何Oracle数据库的单一名称。 用户可以将SCAN视为RAC...

36060
来自专栏Linyb极客之路

快速部署Tomcat项目的Shell脚本

为了做集群测试,在每台机器上装了3个tomcat,每次发布项目的时候都要反复敲一些命令,重启tomcat之前先检查tomcat进程有没有停掉,没有还要手动kil...

407130
来自专栏EAWorld

DevOps的支撑服务:K8s容器管理与应用部署

? 大家好,本期微课堂介绍在新一代数字化企业云平台中对于Kubernetes的学习以及使用的总结。 ? 本次分享分为两部分: 1.介绍Kubernetes是什...

60770
来自专栏杨硕的专栏

【腾讯云的1001种玩法】试用腾讯云 Windows Server 2012 R2 镜像的几点经验分享

作者 :杨硕 腾讯云Windows Server 2012 R2镜像上线有段时间了,相信大家都用过了。我自己也用了,分享下我的经验。 1.2012 ping不通...

93960
来自专栏java一日一条

HAProxy、Nginx 配置 HTTP/2 完整指南

基于最近对HTTP/2的争论和它的优势,是时候升级底层架构了。这篇文章将会介绍如何在安装和配置HAProxy和Ngnix(使用ssl终端)。为了简化流程,我建议...

17010
来自专栏有刻

Docker 小记 — Compose & Swarm

606110
来自专栏杂文共赏

使用DCHQ自动部署和管理Docker Cloud /虚拟Java微服务

本文演示了一个在云或虚拟平台上,用于自动化部署和管理Docker Java微服务应用程序的解决方案。我们通过扩展现有项目Chris Richardson的示例—...

21240
来自专栏晨星先生的自留地

如何快速的搭建漏洞环境到复现到PoC

75410

扫码关注云+社区

领取腾讯云代金券