首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

在现有 Kubernetes 集群上安装 KubeSphere

KubeSphere 一开始就推出了开源的社区版本,只是之前提供的安装方式比较单一,在已有的 Kubernetes 集群上要想安装相对较麻烦,本文将为你演示如何在已有的 Kubernetes 集群上安装...集群中的 master 节点上,因为我们需要使用到 master 节点上的一些证书文件。...port to become open部分,节点上通过 NodePort 已经可以正常访问 sonarqube ,该问题没有解决,由于是一个不影响全局安装的一个操作,所以同样在配置文件中将 sonarqube_enable...设置为 False 问题4:在安装过程中 istio 安装不上,由于我当前的集群资源不是很足,所以也临时取消掉 istio 的安装,后续在开启 istio 的支持。...,这种情况我们可以先手动在节点上拉取镜像,然后再重新创建一个新的用于安装的 Job 即可。

93320

在TKE(Kubernetes)集群上安装Rancher

Rancher提供了在生产环境中使用的管理Docker和Kubernetes的全栈化容器部署与管理平台。 Rancher可以最大程度的降低学习成本,使得刚接触kubernetes的同学快速上手。...那么本文带来的是在TKE集群上安装Rancher 一、 安装Helm 首先在控制台开通helm功能 [jvsm84bykl.png] 二、下载helm client 由于控制台的安装只下发了tiller...准备证书 这一步比较麻烦,由于Rancher在2.0后的版本默认开启了TLS,所以在创建时需要先准备好证书,并且后续Rancher下发主机的探针时,会通过证书中的域名来通信。...若这里是自建的证书,将会出现agent与cattle-service通信异常的情况。 所以证书是用到一个在腾讯云上申请的正式证书。 image.png 3....创建证书secret 在申请完毕后,点击下载将证书key存放至服务器上并解压 # 解压 $ unzip tencent.angryhuang.xyz.zip # 进入目录 $ cd Nginx/ $

3.6K20
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    在 Kubernetes 上编排 MongoDB 集群

    为了保证应用的稳定性,我们通过 podAntiAffinity 指定了 Pod 的反亲和性,这样可以保证不会有两个副本出现在同一个节点上。...Service 是无头服务,没有 ClusterIP,也没有 ExternalIP,这个 Service 会直接解析到 Pod 的 IP 列表,当应用完全部署到 Kubernetes 集群上后,我们就可以按照不同的节点来进行访问了...rs.status() 显示副本集名称和成员数量 在成员列表中也可以看到每个成员的 FQDN 名称和状态,不过需要注意的是 FQDN 只能在 Kubernetes 集群内部访问: ?...,但是是软策略,所以4个 Pod 会经量分散到不同的节点上。...到这里我们就成功地将 MongoDB 部署到了 Kubernetes 集群,而且还是可伸缩的。

    4.5K42

    在 Docker 上建立多节点的 Hadoop 集群

    在上篇文章中你已经看到了在你的devbox创建一个单点Hadoop 集群是多么简单。 现在我们提高门槛,在Docker上创建一个多点hadoop集群。...有了这些功能,创建3个节点的hadoop簇,只需要下面一行代码搞定: curl -Lo .amb j.mp/docker-ambari && . .amb && amb-deploy-cluster 默认参数值都是可以根据需要更改的...它是按照下面步骤来实现的: 在Docker (后台运行) 容器的守护进程上运行sambari-server start (记得还有 anambari-agent start) 运行sn-1 守护进程容器并用...ambari-agent start连接到服务器 运行AmbariShell 以及其终端控制台 (监控子进程) AmbariShell 会把内置的多节点blueprint发送至 /api/v1...基本上我们开始使用Docker的时候就已经使用多端的hadoop功能了 – 笔记本上运行3到4簇面临的极限问题比 Sandbox VM少得多.

    1.1K10

    在Kubernetes上安装Netdata的方法

    介绍 == Netdata可用于监视kubernetes集群并显示有关集群的信息,包括节点内存使用率、CPU、网络等,简单的说,Netdata仪表板可让您全面了解Kubernetes集群,包括在每个节点上运行的服务和...安装HELM ====== root@hello:~# curl https://baltocdn.com/helm/signing.asc | sudo apt-key add - root@hello...helm-stable-debian.list root@hello:~# sudo apt-get update root@hello:~# sudo apt-get install helm 添加源并安装...root@hello:~# kubectl  get svc NAME         TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)     AGE kubernetes... kubectl  get svc NAME             TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)           AGE kubernetes

    1.1K20

    Flagger 在 Kubernetes 集群上是如何工作的?

    可以通过一个名为 canary 的自定义资源来配置 Kubernetes 工作负载的自动化发布过程.Canary resourceCanary 自定义资源定义了在 Kubernetes 上运行的应用程序的释放过程...,可以用 spec.provider 覆盖特定 canary 的全局提供者Canary targetCanary 资源可以针对 Kubernetes Deployment 或 DaemonSetKubernetes...canary,一个用于 primary,以更新 HPA 而不做新的展开, 由于 Canary 的 deployment 将被缩减到 0,Canary 上的 HPA 将不活跃注意: Flagger 需要...Canary service Canary 资源决定了 target 工作负载在集群内的暴露方式, Canary target 应该暴露一个 TCP 端口,该端口将被 Flagger 用来创建 ClusterIP...Kubernetes 服务和生成的 service mesh/ingress 对象, 这允许在 Istio VirtualService 和 TraefikServices 中使用外部 DNS,要注意

    2.1K70

    CentOS 7 上安装配置 Kubernetes 集群

    安装和配置 Kubernetes 集群的过程是比较繁琐的,这里阐述在 Mac 上利用 virtualbox 配置 CentOS 7 上的 Kubernetes 集群的过程。...目标 我们需要搭建的 Kubernetes 集群目标和规格如下: k8s 集群包含 4 个节点,一个 Master 节点, 3 个 Worker 节点 主机为 Mac OS 10.14.5,所有节点的虚拟机在...此时也可以不进行节点复制,等 docker 和 kubelet, kubeadm, kubectl 的安装完成后在进行节点复制更方便。...首先在 master 节点上执行以下命令来获取在集群中添加节点的命令 kubeadm token create --print-join-command 输出为 kubeadm join 192.168.56.11...worker 节点上执行上面的命令,这个时候 kubernetes 会使用 DaemonSet 在所有节点上都部署 canal 和 kube-proxy。

    54020

    手工在Docker for mac上安装Kubernetes

    通常开发都是使用单机版的Docker环境,不太操心Docker集群的事情。...然后在这方面的知识也就固化在了这个点,再也没有更新。 而实际上Kubernetes大概每三个月发出一个新版本的速度,快速的成长着。...不过第一次安装就碰到了麻烦,在设置中开启Kubernetes支持之后,命令行工具kubectl很快就安装成功,但是Kubernetes一直停留在安装界面,看不到动作和进展。...查了查,发现又卡在了Docker映像文件的下载,Kubernetes毕竟是Google开发的工具,所以放在了Google自己的仓库中,域名是gcr.io,在国内完全无法访问。...其中还共享有一些centos用的Kubernetes软件包,请忽略,在Mac上不需要。

    2.2K40

    在腾讯云上使用kubeadm搭建Kubernetes集群

    提到容器技术必然会提到容器的编排系统,在众多编排系统中Google的Kubernetes已跑在了行业的最前端,本文将介绍如何使用kubeadm快速的搭建一套用于学习和测试的kubernetes集群。...3.4 启动squid service squid start 3.5 查看服务是否启动 netstat -ntl 如果你自定义的端口存在那么证明服务启动成功 4 在国内服务器上安装docker.../kubernetes/yum/doc/yum-key.gpg enable = 1 END 校验 yum repolist 2 在master和node上安装软件 yum install.../Documentation/kube-flannel.yml 6 将node添加到集群内 在node上执行如下命令 systemctl enable docker && systemctl enable...net.bridge.bridge-nf-call-iptables = 1 net.bridge.bridge-nf-call-arptables = 1 sysctl -p 使用如下命令: 加入节点到集群内

    4.5K80

    5分钟教你在kubernetes集群上安装Helm,并部署应用

    正在运行的kubernetes集群 kubernetes集群API Endpoint应该可以从运行Helm的机器上访问。 使用kubectl对集群进行身份验证,它应该具有集群管理员权限。...Tiller将被安装在kubernetes集群中,Helm客户端会与其交互,从而使用Helm charts部署应用程序。 Helm将管理k8s集群资源。...因此,我们需要向安装在集群kube-system命令空间中的tiller组件添加必要的权限。...helm init --service-account=tiller --history-max 300 如果要安装指定的tiller版本,则可以在init命令中使用--tiller-image参数指定...执行以下helm install命令,在kubernetes集群中部署ingress nginx。它将从github仓库中下载nginx-ingress helm chart。

    3.5K40

    mysql集群在kubernetes上用StatefulSet方式的简单部署

    在一个独立使用的数据库服务器上,你可以设置这个变量到服务器物理内存大小的80%# 不要设置过大,否则,由于物理内存的竞争可能导致操作系统的换页颠簸.# 注意在32位系统上你每个进程可能被限制在 2-3.5G...当然,你可以将这个配置项设为1以外的值来换取更高的性能,但是在系统崩溃的时候,你将会丢失1秒的数据。# 设为0的话,mysqld进程崩溃的时候,就会丢失最后1秒的事务。...{{NAMESPACE}}.svc.cluster.local,其中metadata.name=创建的name+“-”+第几个(从0开始),在集群中默认第一个作为master节点,其他作为slave节点...执行init方法,首先会判断mysql是否启动,不是就kill掉等kubernetes再次创建,如果是,判断pod的name,截取出是第几个,如果是0,那么这个节点将作为master节点,将创建一个用户用来同步数据...其他节点从master节点同步数据,通过ping命令来获取master节点在集群内分配的IP(我在测试的时候发现如果用{{metadata.name}}.{{SERVICE_NAME}}.

    12910

    在大规模 Kubernetes 集群上实现高 SLO 的方法

    导读:随着 Kubernetes 集群规模和复杂性的增加,集群越来越难以保证高效率、低延迟的交付 pod。本文将分享蚂蚁金服在设计 SLO 架构和实现高 SLO 的方法和经验。 ?...至于故障机的恢复时间,需要按不同的故障原因,制定不同的恢复时间。比如系统故障需要重要安装系统,那恢复时间就会长些。...比如说集群内太多 pods 调度到热点节点,不同 pods 的交付引起节点上资源竞争,导致节点负载太高,而交付能力却在下降,最终表现为节点上 pods 交付超时。...Pod 创建/升级失败,用户可以通过重试来解决,但 pod 删除失败,虽然有着 K8s 面向终态的理念,组件会不断重试,但终究也会存在脏数据,如 pod 在 etcd 上删除,但是节点上还残留着脏数据。...在权限隔离的基础上,还需要做到 QPS 隔离,及容量的隔离,防止一个用户的 Pod 把集群能力耗尽,从而保障其他用户的利益。 ?

    1.3K30

    如何在1.18版本的TKE集群中搭建kubeflow环境

    NT:注意这里安装Kubeflow需要特殊开启部分APIserver的自定义参数,而TKE的托管集群不支持修改APIserver参数,所以这里我们需要创建独立集群,以方便后续自定义我们的环境。...status kubelet查看kubelet的配置文件具体路径(master节点和node节点路径有出入),然后在配置文件中加上对应配置随后重启即可。...三、部署Kubeflow 这里安装的版本为v1.2.0。后续有出入自行调整。...2、部署过程中发下有相关DB的pod启动失败 原因为准备测试集群环境是node节点全部在一个可用区(硅谷一区),而storageclass使用的可用区为硅谷二区。导致申请pv的时候失败。...建议后续在准备node的时候混合可用区,保持高可用性。 3、部署使用的镜像均为国外镜像 考虑到国内网络环境,这边测试时选择了国外环境(硅谷地域)的集群来避免此问题。

    1.6K90
    领券