如果只管理几台服务器,命令多点也没什么,但是如果管理着成百上千台服务器,可以想象一下,工作量将是多么的庞大。所以作为一名运维工程师,就需要寻找一款能够降低工作量的工具。那么今天就给大家介绍一批工具,这批工具是“可编程”的,只需要为这批工具写上几行代码,它便会自动完成所有的工作,这批工具就是运维自动化puppet(为什么说是一批工具,因为软件不止一个)。Puppet可以针对多台服务器进行统一的操作,例如:软件分发,统一执行脚本,在服务器上写好脚本分发给客户机,客户机就会自动执行,减少了人力及误操作风险。Puppet与我们之前在windows2008R2中学习过的“组策略”非常相似,所以在windows中有的功能,在linux中都能找到这些功能的影子。
一、puppet的简单介绍
1、puppet:运维自动化软件,针对多台服务器统一操作,批量安装、上线维护,减少人力及误操作风险。
可在单机上也可以以C/S机构使用。服务器端为puppetmaster,客户端为puppetclient.client和master之间是基于ssl和证书的,需要注册。Puppet同步后会保持状态,默认30分钟重新检测同步一次。
2、puppet工作流程:
1)客户端通用facter探测主机的变量,并通过SSL连接发送到服务器。
2)服务器通过facter分析客户端的主机名,并找到manifests里对应的node配置并分析生成一个伪代码,并发给客户端。
3)客户端收到伪代码,把执行结果发给服务器。
4)服务器把结果记录日志
3、puppetmaster的配置:分模块配置结构和目录结构两部分
模块配置中可以创建许多应用模块,每一个应用模块必须有一个入口,文件(主配置文件)init.pp文件,可以只有这一个文件也可以包含其他文件。
目录结构中包含需要客户端复制的文件及客户端节点信息等:必须有的入口文件名为site.pp
4、客户端同步的方式有两种;
1)客户端主动拉取(小规模):puppet agent -t
2)服务器端推送同步(大规模):需要客户端添加验证信息和权限
puppet kick 客户机名
二、实验拓扑图
三、根据实验拓扑图搭建环境
1、NTPserver的搭建:
yum -y install ntp(如果安装了,请忽略)
vim /etc/ntp.conf添加两行:
service ntpd start
chconfig ntpd on
2、搭建puppetmaster服务器
1)规划主机名
vim /etc/sysconfig/network修改
vim /etc/hosts添加几行:
重启计算机
2)Puppetmaster作为ntp客户端的配置
yum -y install ntp(如果安装了,请忽略)
ntpdate 192.168.1.40
3)安装ruby,注意顺序,先安装compat-readline5包,也可一起安装。
安装完之后检查ruby的版本:
4)Puppet,facter安装
5)创建puppet主目录
注明:manifests为节点信息,modules为模块信息
6)puppet服务证书请求与签名
修改配置文件:vim /etc/puppet/puppet.conf
在[main]标题下添加一行,配置服务器模块路径
7)启动puppet主程序
service puppetmaster start
注明:puppetmaster默认端口tcp 8140
3、搭建puppetclient(先配置client1)
1)规划主机名
vim /etc/sysconfig/network修改
vim /etc/hosts添加几行:
重启计算机
2)与时间服务器同步
yum -y install ntp(如果安装了,请忽略)
ntpdate 192.168.1.40
3)安装ruby,注意顺序,先安装compat-readline5包,也可一起安装。
安装完之后检查ruby的版本:
4)Puppet,facter安装
5)puppet服务证书请求与签名
修改配置文件: vim /etc/puppet/puppet.conf
在[main]标题下添加一行,设置服务器域名。
注明:
Client2的配置过程与client1类似,只要将主机名修改为client2.test.cn即可。
4、申请与注册
1)client端:
分别在client1和client2上进行注册
等待一会儿后,此时可以按ctrl+c结束,因为puppet一直在等待任务,但是已经从server可以查看到申请信息。
2)master端:
查看申请注册的客户端:
将未注册的客户端进行注册:
puppet cert sign --all
可以通过目录去查看已经注册的客户端:
5、配置实例(应用)
案例应用的背景:为了保护linux的ssh端口爆破,批量修改客户端sshd端口,将端口22修改为9922,并实现重启工作。
想完成以上几点,需要明确几点:
①需确定openssh软件包安装
②需确定存在ssh的配置文件
③确定sshd的服务是系统服务
1)配置一个测试节点:
Master端:
(1)创建需要的必要目录:
注明:创建ssh模块,模块的目录为ssh,模块下有三个文件分别是:manifests、templates、files。
manifest里面必须包含一个init.pp文件,这是该模块的的初始(入口)文件,导入一个模块的时候需要从init.pp开始执行,可以把所有的代码都写入到这个文件中,也可以分成多个.pp文件,init在去包含其他文件,定义class类名时必须是ssh,这样才能实现调动
files目录是该模块的发布目录,puppet提供了一个文件分割机制,类似rsync的模块。
templates目录包含erb模块文件、这个和file资源的templates属性有关(很少使用)
(2)创建模块配置文件install.pp
首先确定客户端安装ssh服务
(3)创建模块配置文件config.pp
ssh主配置文件的配置:
注意:红色的为大写。
注明:
class ssh::config{
file{"/etc/ssh/sshd_config": //配置客户端需要同步的文件
ensure => present, //确定客户端此文件存在
owner => "root", //文件所属用户
group => "root", //文件所属组
mode => "0600", //文件权限
source=>"puppet://$puppetserver/modules/ssh/ssh/sshd_config",
//从服务器同步文件的路径
require =>Class["ssh::install"], //调用ssh::install确定
openssh已经安装
notify =>Class["ssh::service"], //如果config.pp发生变化通知service.pp
}
}
这个文件的内容主要是定义,发布的配置文件权限以及调用ssh::install检查client是否安装了ssh服务,以及调用ssh::service重新启动sshd服务。
(4)创建模块配置文件service.pp
Sshd服务的配置:
注明:
class ssh::service{
service{ "sshd":
ensure=>running, //确定sshd运行
hasstatus=>true,
//puppet该服务支持status命令,即类似service sshd status命令
hasrestart=>true,
//puppet该服务支持status命令,即类似service sshd status命令
enable=>true, //服务是否开机启动
require=>Class["ssh::config"] / /确认config.pp调用
}
}
(5)创建模块主配置文件init.pp
该模块的初始(入口)文件配置:
(6)建立服务器端ssh统一维护文件
由于服务器和客户端的sshd_config文件默认配置一样,此时将服务器端/etc/ssh/sshd_config复制到模块默认路径。
(7)创建测试节点配置文件,并将ssh加载进去。
(8)将测试节点载入puppet,即修改site.pp
(9)修改服务器端维护的sshd_config配置文件
(10)重启puppet
2)客户端主动拉取:(client1上操作)
Client端:
验证:vim /etc/ssh/sshd_config
查看ssh服务是否重启,端口是否生效:
3)服务器推送同步
Client2端:
(1)修改配置文件
vim /etc/puppet/puppet.conf
最后一行添加:
vim /etc/puppet/auth.conf
最后一行添加:
(2)启动puppet客户端
Master端:
(3)开始往客户端推送
(4)验证结果
在client2上验证:
vim /etc/ssh/sshd_config
查看ssh服务是否重启,端口是否生效:
领取专属 10元无门槛券
私享最新 技术干货