kubernetes学习记录(9)——集群基于CA签名的安全设置

最近在使用RC的时候碰到了一个问题:创建RC后无法自动创建Pod 网上搜索,得到出现该问题的原因是:身份认证。 解决的办法有两种:(1)跳过认证(2)解决认证

跳过认证

跳过认证的解决办法是

vim /etc/kubernetes/apiserver

编辑apiserver,去除KUBE_ADMISSION_CONTROL中的 SecurityContextDeny,ServiceAccount 重启kube-apiserver.service服务。

systemctl restart kube-apiserver.service

解决认证

因为后续像Heapster等,都需要与Kubernetes Master进行安全连接,所以使用CA证书解决认证。

本章能创建出一个纯CA认证的集群环境,关闭了所有的非安全端口,这种方式在后续的使用中,碰到了一些问题,正在尝试安全端口和非安全端口并存的认证方式(2017年8月25日备注),成功后会修改本篇内容(已更新)

解决认证采用的是《kubernetes权威指南:从Docker到Kubernetes实践全接触》中的基于CA签名的双向数字证书认证方式。

在一个安全的内网环境中,Kubernetes的各个组件与Master之间可以通过apiserver的非安全端口http://apiserver:8080进行访问。

但如果apiserver需要对外提供服务,或者集群中的某些容器也需要访问apiserver,以获取集群中的某些信息,更安全的做法是启用HTTPS安全机制

这里,采用基于CA签名的双向数字证书认证方式。过程如下:

(1)为kube-apiserver生成一个数字证书,并用CA证书进行签名。
(2)为kube-apiserver进程配置证书相关的启动参数,包括CA证书(用于验证客户端证书的签名真伪、自己经过CA签名后的证书及私钥)。
(3)为每个访问Kubernetes API Server的客户端进程生成自己的数字证书,也都用CA证书进行签名,在相关程序的启动参数中增加CA证书、自己的证书等相关参数。

Master端配置

OpenSSL工具在Master服务器上创建CA证书和私钥相关的文件

#openssl genrsa -out ca.key 2048
#openssl req -x509 -new -nodes -key ca.key -subj "/CN=192.168.121.143" -days 5000 -out ca.crt
#openssl genrsa -out server.key 2048

生成文件如下:

ca.crt  ca.key  server.key

创建Master_ssl.cnf文件,生成x509 v3版本证书

[req]
req_extensions = v3_req
distinguished_name = req_distinguished_name
[req_distinguished_name]
[ v3_req ]
basicConstraints = CA:FALSE
keyUsage = nonRepudiation, digitalSignature, keyEncipherment
subjectAltName = @alt_names
[alt_names]
DNS.1 = kubernetes
DNS.2 = kubernetes.default
DNS.3 = kubernetes.default.svc
DNS.4 = kubernetes.default.svc.cluster.local
DNS.5 = master
IP.1 = 10.254.0.1
IP.2 = 192.168.121.143

DNS.5为Master服务器的HostName,IP.1为Kubernetes Master Service的Cluster IP,IP.2为Master服务器的IP。

基于Master_ssl.cnf生成server.csr和server.crt。 在生成server.csr时,-subj参数中/CN指定的名字需要为Master所在的主机名。

openssl req -new -key server.key -subj "/CN=master" -config Master_ssl.cnf -out server.csr
openssl x509 -req -in server.csr -CA ca.crt -CAkey ca.key -CAcreateserial -days 5000 -extensions v3_req -extfile Master_ssl.cnf -out server.crt

现在有6个文件:

ca.crt ca.key ca.srl server.crt server.csr server.key

将它们复制到/etc/kubernetes/ssl/下。

配置kube-apiserver的启动参数

修改/etc/kubernetes/apiserver

--client-ca-file #CA根证书文件
--tls-cert-file #服务端证书文件
--tls-private-key-file #服务端私钥文件
--secure-port=6443 #安全端口
--bind-address=192.168.121.143 #HTTPS(安全)绑定的MasterIp地址
--advertise-address=192.168.121.143 #对外提供服务的IP
--insecure-bind-address=192.168.121.143#非安全IP

最终的/etc/kubernetes/apiserver如下

KUBE_API_ADDRESS="--advertise-address=192.168.121.143 --bind-address=192.168.121.143 --insecure-bind-address=192.168.121.143"
KUBE_ETCD_SERVERS="--etcd-servers=http://192.168.121.143:2379"
KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16"
KUBE_ADMISSION_CONTROL="--admission-control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota"
KUBE_API_ARGS="--client-ca-file=/etc/kubernetes/ssl/ca.crt --tls-private-key-file=/etc/kubernetes/ssl/server.key --tls-cert-file=/etc/kubernetes/ssl/server.crt"

重启kube-apiserver服务

#systemctl restart kube-apiserver

配置kube-controller-manager的启动参数

/etc/kubernetes/controller-manager最终如下

KUBE_CONTROLLER_MANAGER_ARGS="--address=127.0.0.1 --service-account-private-key-file=/etc/kubernetes/ssl/server.key --root-ca-file=/etc/kubernetes/ssl/ca.crt --kubeconfig=/etc/kubernetes/kubeconfig"

配置kube-scheduler的启动参数

/etc/kubernetes/scheduler最终如下

KUBE_SCHEDULER_ARGS="--address=127.0.0.1 --kubeconfig=/etc/kubernetes/kubeconfig"

配置/etc/kubernetes/config

修改/etc/kubernetes/config,最终为

KUBE_LOGTOSTDERR="--logtostderr=true"
KUBE_LOG_LEVEL="--v=0"
KUBE_ALLOW_PRIV="--allow-privileged=true"
KUBE_MASTER="--master=https//192.168.121.143:6443"

生成集群管理员证书

在/etc/kubernetes/ssl/下执行(会用到上文生成的文件)

#openssl genrsa -out cs_client.key 2048
#openssl req -new -key cs_client.key -subj "/CN=master" -out cs_client.csr
#openssl x509 -req -in cs_client.csr -CA ca.crt -CAkey ca.key -CAcreateserial -out cs_client.crt -days 5000

创建/etc/kubernetes/kubeconfig

apiVersion: v1
kind: Config
users:
- name: controllermanager
  user:
    client-certificate: /etc/kubernetes/ssl/cs_client.crt
    client-key: /etc/kubernetes/ssl/cs_client.key
clusters:
- name: local
  cluster:
    certificate-authority: /etc/kubernetes/ssl/ca.crt
contexts:
- context:
    cluster: local
    user: controllermanager
  name: my-context
current-context: my-context

重启kube-controller-manager、kube-scheduler服务

#systemctl restart kube-scheduler kube-controller-manager

配置Node端

复制kube-apiserver的ca.crt和ca.key到各个Node上(/etc/kubernetes/ssl下)。

生成kubelet_client.crt

在生成kubelet_client.crt时,-CA参数和-CAkey参数使用的是apiserver的ca.crt和ca.key文件。在生成kubelet_client.csr时,-subj参数中的“/CN”设置为本Node的IP地址。

#openssl genrsa -out kubelet_client.key 2048
#openssl req -new -key kubelet_client.key -subj "/CN=192.168.121.144" -out kubelet_client.csr
#openssl x509 -req -in kubelet_client.csr -CA ca.crt -CAkey ca.key -CAcreateserial -out kubelet_client.crt -days 5000

创建/etc/kubernetes/kubeconfig

创建/etc/kubernetes/kubeconfig文件(kubelet和kube-proxy进程共用),配置客户端证书等相关参数。内容如下:

apiVersion: v1
kind: Config
users:
- name: kubelet
  user:
    client-certificate: /etc/kubernetes/ssl/kubelet_client.crt
    client-key: /etc/kubernetes/ssl/kubelet_client.key
clusters:
- name: local
  cluster: 
    certificate-authority: /etc/kubernetes/ssl/ca.crt
contexts:
- context:
    cluster: local
    user: kubelet
  name: my-context
current-context: my-context

修改kubernetes的配置文件/etc/kubernetes/config

KUBE_LOGTOSTDERR="--logtostderr=true"
KUBE_LOG_LEVEL="--v=0"
KUBE_ALLOW_PRIV="--allow-privileged=false"
KUBE_MASTER="--master=https://192.168.121.143:6443"

设置kubelet服务的启动参数

--api_servers=https://192.168.121.143:6443
--kubeconfig=/etc/kubernetes/kubeconfig

修改/etc/kubernetes/kubelet

KUBELET_ADDRESS="--address=192.168.121.144"
KUBELET_HOSTNAME="--hostname-override=192.168.121.144"
KUBELET_API_SERVER="--api-servers=https://192.168.121.143:6443"
KUBELET_POD_INFRA_CONTAINER="--pod-infra-container-image=192.168.121.140:5000/registry.access.redhat.com/rhel7/pod-infrastructure:latest"
KUBELET_ARGS="--cluster_dns=10.254.10.2 --cluster_domain=cluster.local --kubeconfig=/etc/kubernetes/kubeconfig"

重启kubelet服务

#systemctl restart  kubelet

设置kube-proxy服务的启动参数

--master=https://192.168.121.143:6443
--kubeconfig=/etc/kubernetes/kubeconfig

修改/etc/kubernetes/proxy

KUBE_PROXY_ARGS="--master=https://192.168.121.143:6443 --kubeconfig=/etc/kubernetes/kubeconfig"

重启kube-proxy服务

systemctl restart  kube-proxy

验证

我们在正常启动前最好删掉etcd中的旧数据 在master上执行(#etcdctl rm --recursive registry

重启master上的服务

#systemctl daemon-reload
#systemctl restart etcd kube-apiserver kube-scheduler kube-controller-manager

重启node上的服务

#systemctl daemon-reload 
#systemctl restart docker kubelet kube-proxy

验证

#curl https://master:6443/api/v1/nodes --cert /etc/kubernetes/ssl/cs_client.crt --key /etc/kubernetes/ssl/cs_client.key --cacert /etc/kubernetes/ssl/ca.crt
#kubectl get nodes

这里需要配置一下kubectl的启动参数 否则不能直接用kubectl get nodes,直接用会报错

报错信息如下:
The connection to the server localhost:8080 was refused - did you specify the right host or port?

kubectl的启动参数配置会在之后有空的时候整理 使用kubectl -s 192.168.121.143:8080 get nodes代替 下面指令类似

#kubectl get sa --all-namespaces

创建一个RC进行验证

apiVersion: v1
kind: ReplicationController
metadata:
  name: myapp-v1
spec:
  replicas: 10
  selector:
    app: myapp
    version: v1
  template:
    metadata:
      labels:
        app: myapp
        version: v1
    spec:
      containers:
      - name: myapp
        command:
          - sleep
          - "3600"
        image: 192.168.121.140:5000/busybox
        imagePullPolicy: IfNotPresent
      restartPolicy: Always

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏鬼谷君

saltstack 初始化LINUX系统

前面我们已经了解了saltstack的基础功能,现在就可以使用saltstack为初始化新安装的linux系统。

926
来自专栏码匠的流水账

ubuntu安装chrome及firefox

firefox的启动有点麻烦,需要设置XDG_RUNTIME_DIR,另外需要启动display

491
来自专栏蓝天

mono-3.0.2安装指南

mono是一个由Novell公司主持的一个致力于开创.net在Linux、FreeBSD、Mac OS X和Solaris上使用的开源工程。

822
来自专栏Android干货

Android项目实战(三十八):2017最新 将AndroidLibrary提交到JCenter仓库(图文教程)

2657
来自专栏乐沙弥的世界

ORACLE 系统用户角色故障导致ORA-01017

最近在为Oracle单实例配置ASM时,做了一些调整,结果导致sys用户无法以操作系统身份验证登陆,即提示ORA-01017错误。本文描述了这个故障的解决过程,...

612
来自专栏鬼谷君

10-部署配置dashboard插件

981
来自专栏一个默默无闻的工程师的日常

openstack ocata部署ceilometer+gnocchi

2204
来自专栏乐沙弥的世界

基于Linux (RHEL 5.5) 安装Oracle 10g RAC

    本文所描述的是在Red Hat 5.5下使用vmware server 来安装Oracle 10g RAC(OCFS + ASM),本文假定你的RHEL...

923
来自专栏安恒网络空间安全讲武堂

打个3dsctf,电脑机都开不了?

3DSCTF Malware 3道题 writeup tags: - Reverse - malware ---- 这个ctf有个Malware的题型,...

2319
来自专栏散尽浮华

分布式监控系统Zabbix-3.0.3-完整安装记录(3)-监控nginx,php,memcache,Low-level discovery磁盘IO

前段时间在公司IDC服务器上部署了zabbix3.0.3监控系统,除了自带的内存/带宽/CPU负载等系统资源监控模板以及mysql监控模板外,接下来对诸如ngi...

1766

扫码关注云+社区