展开

关键词

MFS-master故障切换

1、问题描述:六个底层部署了mfs分布式存储,node4(mfsmaster), 其中node1-6都为mfschunkserver,分别开启了metalogger服务。 准备切换到node6中。 2、问题分析:mfsmaster宕机,mfsmount挂载失败,需要通过metalogger恢复mfsmaster的数据3、解决方案:在node2或者node3,通过metalogger恢复metadata.mfs

47610

重新初始化k8s master

卸载k8s, 可以参考这篇文章: https://blog.csdn.net/ccagy/article/details/85845979

1.1K20
  • 广告
    关闭

    50+款云产品免费体验

    提供包括云服务器,云数据库在内的50+款云计算产品。打造一站式的云产品试用服务,助力开发者和企业零门槛上云。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Kubernetes 1.8.6 集群部署–Master(五)

    部署 master 上面的那一堆都是准备工作,下面开始正式部署kubernetes了,在master进行部署。

    52180

    Kubernetes 1.8.6 集群部署–Master(五)

    部署 master 上面的那一堆都是准备工作,下面开始正式部署kubernetes了,在master进行部署。

    78680

    k8s1.13.0二进制部署-master(三)

    下载二进制包:https://github.com/kubernetes/kubernetes

    14810

    安装k8s的master和worker

    安装k8s的master和workerB站视频地址: 5.1k8s-搭建master_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili复制init镜像->mastermaster改hostname 主机名master改ipk8s-搭建篇k8s v1.15.0,后续可以升级v1.15.5 , v1.15.5是安全版master 2G内存2核CPULinux 内核 版本 >= 3.10.0-957.el7

    87420

    kubernetes集群搭建(3):master安装

    1.master上执行:yum -y install kubernetes flannel etcd2.修改etcd配置为:# vi etcetcdetcd.conf ETCD_NAME=defaultETCD_DATA_DIR 10250 # You may leave this blank to use the actual hostnameKUBELET_HOSTNAME=--hostname-override=k8s-master =http:k8s-master:80806.启动服务并设置为开机启动for SERVICES in flanneld etcd docker kube-apiserver kube-controller-manager systemctl restart $SERVICES systemctl enable $SERVICES systemctl status $SERVICES -ldone7.设置etcd网络信息,用于后续启动的容器 ip分配etcdctl mk atomic.ionetworkconfig {Network:172.16.0.016}8.测试是否成功(由于还没配置node,只要命令不报错就行,下面为我配置好后的输出

    22430

    kubeadm搭建kubernetes集群之二:创建master

    启动master打开VMware软件,选中上面我们复制的master文件夹,选中里面的文件然后击“打开”按钮,如下图: ?如下图,击红框中的“编辑虚拟机设置”按钮 ? 如下图,在设置页面中将虚拟机名字改成”master”: ?如下图,击红框中的按钮启动master: ?如下图,在弹出的窗口中选择“我已复制该虚拟机”: ? 修改hostname再重启mastermaster启动完毕,进入系统,修改etchostname文件,这里面只有一行内容“localhost.localdomain”,改成”master”;修改完hostname 用kubectl get node命令查看当前的信息,能看见只有一个master,如下图:? 至此,kubernetes集群的master就安装完成了,因为还没有加入node,所以此时还不能部署应用,等下一章我们将node加入后再部署应用试试;

    66280

    kubeadm搭建单master1.20版本kubernetes集群

    执行: hostnamectl set-hostname master node执行: hostnamectl set-hostname node1 设置hosts文件,2台机器都执行,在文件末尾追加 内网ip bindPort: 6443nodeRegistration: criSocket: varrundockershim.sock name: master taints: - effect ,node1执行: kubeadm join 10.0.1.7:6443 --token abcdef.0123456789abcdef --discovery-token-ca-cert-hash 查看集群所有,通过管理也就是master执行 kubectl get nodes查看: # kubectl get nodesNAME STATUS ROLES AGE VERSIONmaster 11 Running 1 4m24s 集群搭建完成,这里是单master,生产环境建议准备3台服务器用来做master

    13900

    K8S系列之K8S集群之Master部署

    在本文中,我们将正式开始部署K8S集群,首先要部署K8S集群中的Master相关的各种组件,实验集群的架构图参见 搭建K8S集群之Harbor仓库、DNS和ETCD部署。 Master上有三个组件,分别是API Server、Scheduler已经Controller Manager,接下来我们来详述部署过程。 设置vip为10.4.7.10 }}# systemctl start keepalived# systemctl enable keepalived在10.4.7.12上配置为keepalived的从并启动 上的组件就全部部署完成了。 接下来,我们将部署Node的服务。

    32120

    Kubernetes(k8s)1.14 离线版集群 - 部署master

    1、搭建前说明a、kubernetes - master运行组件如下:kube-apiserverkube-schedulerkube-controller-manager如没有特殊说明,一般都在k8s -01服务器操作前提提条件、服务器,请查看这个地址:https:blog.csdn.netesqabcarticledetails1027267712、部署mastera、下载kubernetes二进制包 -xzvf kubernetes-server-linux-amd64.tar.gz # cd kubernetes # tar -xzvf kubernetes-src.tar.gz b、分发到所有master # cd optk8swork # source optk8sbinenvironment.sh for node_ip in ${MASTER_IPS} do echo >>> ${node_ip

    16130

    k8s集群部署六(部署master组件) 顶

    首先需要下载master的二进制包,下载地址https:github.comkuberneteskubernetesblobmasterCHANGELOG-1.9.md我们需要下载的是kubernetes-server-linux-amd64

    36320

    kubernetes-1:使用kubeadm搭建K8S单master集群

    2.通过 sudo cat sysclassdmiidproduct_uuid 可查看机器的 product_uuid 请确保要搭建集群的所有的 product_uuid 均不相同。 同时所有的 Mac 地址也不能相同,通过 ip a 或者 ifconfig -a 可进行查看。 这么说你也许不太理解,简单说,它其中的一个功能是可以实现端口转发。无论在 K8S 中,还是在 Docker 中,如果我们需要在外部访问服务,端口转发是个必不可少的部分。 执行如下命令或得:kubeadm token create --print-join-command(11).重置集群如果想重新安装,执行如下命令恢复安装前状态:kubeadm reset。 再次执行如下命令即可快速重装k8s:kubeadm init --ignore-preflight-errors=NumCPU --kubernetes-version v1.13.3 --pod-network-cidr

    92220

    关于helm安装jenkins指定label 为masterWaiting

    helm 安装jenkins,做个测试 指定pipeline agent label为master: pipeline{ 指定运行此流水线的 agent { label master } 管道运行选项 查看 Console output: Waiting for next available executor on ‘Jenkins 打开系统管理-管理-Master-配置从: 嗯 默认的 master的执行器数量是0,修改为5(这个真的是自己随意设置的,仅用于测试),OK保存。

    17340

    Kubernetes-V1.14.2 二进制编译部署(master部署篇)

    Kubernetes-V1.14.2 二进制编译安装(master部署篇) 微信图片_20190724003203.jpg3.1 复制二进制文件tar xf kubernetes-server-linux-amd64 IP--etcd-servers=https: 后面的IP分别换成自己的master和node的IP3.2.6、 启动服务systemctl daemon-reloadsystemctl enable github.comGoogleCloudPlatformkubernetes ExecStart=appkubernetesbinkube-controller-manager --address=127.0.0.1 --master github.comGoogleCloudPlatformkubernetes ExecStart=appkubernetesbinkube-scheduler --address=127.0.0.1 --master IP3.5.5 设置客户端认证参数kubectl config set-credentials admin --client-certificate=appkubernetesssladmin.pem

    89650

    k8s加入新的master出现etcd检查失败

    背景: 昨天在建立好新的集群后,出现了新的问题,其中的一台master无法正常工作。虽然可以正常使用,但是就出现了单故障,今天在修复时出现了etcd健康检查自检没通过。 Yesterday, after a new cluster was established, a new problem a problem occurred, and one of the master Events: 因为集群搭建的时候,etcd是镜像的方式,在master02上面出现问题后,进行剔除完成后,etcd还是在存储在每个master上面,所以重新添加的时候会得知健康检查失败。 that no longer exists----再次进行加入master,即可成功。 Join master again and youll be successful--------

    7630

    moosefs的master热备 原

    .*.mfs方案是这样的: 131是Master,log为132,要是131倒掉,就从132上再起一个master,在132上master和log server是共存的,在log上恢复master的好处是不用 scp master上的Metadata.mfs.bak文件,因为master和Log是互为热备的,我们要充分利用这一优势。 这样Keepalived的master就算倒掉了,backup: backup 132 的keepalived配置:! to master通过上面的测试我们可以看出,基本切一次数据丢失不多,在承受范围内(哪个文件系统出了故障还不得丢数据)测热备方案的缺陷: 1.master判断是否正常太过粗糙,哪个不懂的上机器给乱整一下 元数据scp过来之后,建议也做一个restore,建议这样做的时候停机维护一下,将备机Master也stop了,手放快,我担心如果不停机的话,这个这么活生生的cp过来的changelog有问题, 有待继续测试

    40430

    CentOS7环境部署kubenetes1.12版本五部曲之二:创建master

    ;官方文档官方文档是最权威的参考:https:kubernetes.iodocssetupindependentcreate-cluster-kubeadm前提本次实战需要访问外国网站,才能kubernetes 相关的操作用于学习和实践;实战操作ssh登录master,身份是root;修改etchostname,确保每台机器的hostname是唯一的;初始化kubernetes:kubeadm init - 76090108cf1281c3c2b82b315f25d85380fadfa545581745c13600a0800016df请将最后一整行的内容kubeadm join 192.168.119.157:6443 …保存好,这是node加入 已经部署成功,下一章继续实战,将node加入集群环境;五部曲全文链接《CentOS7环境部署kubenetes1.12版本五部曲之一:标准化机器》;《CentOS7环境部署kubenetes1.12 版本五部曲之二:创建master》;《CentOS7环境部署kubenetes1.12版本五部曲之三:node加入》;《CentOS7环境部署kubenetes1.12版本五部曲之四:安装dashboard

    25830

    为什么K8s的master不允许我们的业务Pod呢?

    查看K8s的master的描述信息# kubectl describe nodes k8s-masterName: k8s-masterRoles: masterLabels: beta.kubernetes.ioarch =amd64 beta.kubernetes.ioos=linux kubernetes.ioarch=amd64 kubernetes.iohostname=k8s-master kubernetes.ioos 0 (0%) 0 (0%) 0 (0%) 0 (0%) 230d kube-system kube-apiserver-k8s-master 250m (6%) 0 (0%) 0 (0%) 0 (0% ) 230d kube-system kube-controller-manager-k8s-master 200m (5%) 0 (0%) 0 (0%) 0 (0%) 230d kube-system 的描述信息,可以看到k8s的master默认就设置为不允许被调度Taints: node-role.kubernetes.iomaster:NoSchedule

    44030

    Kubernetes1.20.9摘掉一个master再重新加入(ETCD需要注意的)

    我想把摘掉重新安装一下系统(系统替换为centos8.2)然后重新加入集群。以k8s-master-03为例...... 1. 升级更新过程: 1.将k8s-master-03设置为不可调度,并驱逐上pod。 kubectl drain k8s-master-03 --ignore-daemonsets 2. 删除k8s-master-03 kubectl delete nodes k8s-master-03 3. 重装系统 服务器是腾讯云的cvm。后台直接选择了centos8镜像重新初始化了! 生成token 登陆k8s-master-01生成token discovery-token-ca-cert-hash kubeadm token createopenssl x509 -pubkey list 果真etcd信息中还是有k8s-master-03的相关信息,将其移除,并验证: etcd_v3 member remove c86024150ccad21detcd_v3 member

    16130

    扫码关注云+社区

    领取腾讯云代金券