openshift/origin学习记录(13)——集群节点扩容(Master/node/etcd)

集群搭建成功之后,可以对集群进行扩容,包括对Master、Node、Etcd等的扩容,添加新的节点。

官方文档链接如下:https://docs.openshift.org/latest/install_config/adding_hosts_to_existing_cluster.html

这里在 openshift/origin学习记录(0)——Ansible安装多节点openshift集群 搭建的集群基础上进行扩容,按照官方文档的步骤进行。

对新节点以及已有集群节点的处理

参考上面提到的博客。

  • 配置新节点主机名
  • 修改各个节点的/etc/hosts文件,加上静态的域名解析
  • 开启SELINUX
  • 激活网络
  • 安装及配置软件包
# yum install -y wget git net-tools bind-utils iptables-services bridge-utils bash-completion docker
  • 配置docker
  • 配置Master到新节点的互信
  • etcd节点请安装etcd

master节点更新 atomic-openshift-utils

# yum update atomic-openshift-utils

master节点编辑/etc/ansible/hosts

在原有的hosts文件上修改。示例如下:

# Create an OSEv3 group that contains the masters and nodes groups
[OSEv3:children]
masters
nodes
etcd
# 扩容
new_masters
new_nodes
new_etcd
# Set variables common for all OSEv3 hosts
[OSEv3:vars]
# SSH user, this user should allow ssh based auth without requiring a password
ansible_ssh_user=root
openshift_deployment_type=origin
openshift_release=3.6.0
openshift_disable_check=disk_availability,docker_storage,memory_availability,docker_image_availability
# uncomment the following to enable htpasswd authentication; defaults to DenyAllPasswordIdentityProvider
openshift_master_identity_providers=[{'name':'htpasswd_auth','login':'true','challenge':'true','kind':'HTPasswdPasswordIdentityProvider','filename':'/etc/origin/master/htpasswd'}]
# host group for masters
[masters]
master.example.com

# 新增master节点
[new_masters]
node1.example.com

# host group for nodes, includes region info
[nodes]
master.example.com openshift_schedulable=True openshift_node_labels="{'region': 'infra'}"
node1.example.com openshift_node_labels="{'region': 'infra', 'zone': 'east'}"
node2.example.com openshift_node_labels="{'region': 'infra', 'zone': 'west'}"

# 新增node节点
[new_nodes]
node3.example.com openshift_node_labels="{'region': 'infra', 'zone': 'default'}"

[etcd]
master.example.com  

# 新增etcd节点
[new_etcd]  
node1.example.com

执行扩容

注意修改脚本路径为本机路径 ##master扩容

# ansible-playbook ~/openshift-ansible-openshift-ansible-3.7.0-0.126.0/playbooks/byo/openshift-master/scaleup.yml

##node扩容

# ansible-playbook ~/openshift-ansible-openshift-ansible-3.7.0-0.126.0/playbooks/byo/openshift-node/scaleup.yml

etcd扩容

# ansible-playbook ~/openshift-ansible-openshift-ansible-3.7.0-0.126.0/playbooks/byo/openshift-etcd/scaleup.yml

结语

为了保证hosts文件的持续使用,扩容完成后,需要对hosts文件进行修改,将hosts文件里的new标签内容都挪到对应的位置。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏有困难要上,没有困难创造困难也要上!

使用docker-compose创建spark集群

882
来自专栏IT笔记

Consul+Prometheus系统监控之注册发现

缘起 前面几篇文章分别对系统服务、MySql以及Redis相关软件做了监控预警,但是大家有没有发现,在prometheus.yml里配置需要监听的服务时,我们需...

1.5K6
来自专栏瞎说开发那些事

[微服务系列] 3. 服务治理 2 --- Eureka集群

22110
来自专栏Spark学习技巧

大数据基础系列之提交spark应用及依赖管理

在Spark的bin目录下的spark-submit脚本用于提交一个任务到集群中。因为是针对所有的集群管理器统一接口(local,Standalone,yarn...

1959
来自专栏令仔很忙

新手学Linux(五)----Linux下安装Redis

Redis是一个开源的,先进的 key-value 存储可用于构建高性能,可扩展的 Web 应用程序的解决方案。它支持存储的value类型很多,包括strin...

521
来自专栏架构师之旅

一文读懂Hadoop、HBase、Hive、Spark分布式系统架构

机器学习、数据挖掘等各种大数据处理都离不开各种开源分布式系统,hadoop用户分布式存储和map-reduce计算,spark用于分布式机器学习,hive是分布...

58310
来自专栏cmazxiaoma的架构师之路

FastDFS蛋疼的集群和负载均衡(十三)之LVS-DR环境安装

1462
来自专栏喵了个咪的博客空间

[喵咪大数据]Hadoop集群模式

既然是大数据无论存储和处理都需要相当大的磁盘或者是处理的资源消耗,那么单机肯定是满足不了我们的需求的,所以本节我们就来了解Hadoop的集群模式搭建,在集群情况...

3566
来自专栏PHP在线

PHP中9大缓存技术总结

1、全页面静态化缓存 也就是将页面全部生成html静态页面,用户访问时直接访问的静态页面,而不会去走php服务器解析的流程。此种方式,在CMS系统中比较常见,比...

2854
来自专栏linux运维学习

linux学习第十四篇:查看磁盘,文件大小命令:df,du;磁盘分区

df命令 df:查看已挂载磁盘的总容量、使用容量、剩余容量等,可以不加任何参数,默认是按k为单位显示的。 ? 带有tmpfs的都是临时的文件系统,所以在对应的挂...

1818

扫码关注云+社区