kubectl get events 是 Kubernetes 中的一个命令,用于获取集群内部发生的事件 (Events)。这些事件可以包括 Pod 的启动和停止、配置更改、资源不足、错误状况等。...可以结合命名空间使用,例如 kubectl get events -n 来查看指定命名空间的事件。...使用 --sort-by 对事件进行排序,例如按时间排序:kubectl get events --sort-by='.metadata.creationTimestamp'。...使用案例 实时监控事件 kubectl get events -w 查看指定命名空间的事件 kubectl get events -n my-namespace 按时间排序查看最近的事件 kubectl...get events --sort-by='.metadata.creationTimestamp' 只查看 Pod 相关的事件 kubectl get events --field-selector
get events 并没有按照 events 发生的顺序进行排列,所以我们往往需要为其增加 --sort-by='{.metadata.creationTimestamp}' 参数来让其输出可以按时间进行排列...按时间排序后可以看到如下结果: (MoeLove) ➜ kubectl -n moelove get events --sort-by='{.metadata.creationTimestamp}' LAST...查看当前 namespace 中的 events (我省略掉了之前 deploy/redis 的记录) (MoeLove) ➜ kubectl -n moelove get events --sort-by...它的含义表示:该类型的 event 在 3m58s 中已经发生了 7 次,最近的一次发生在 115s 之前 但是当我们去直接 kubectl get events 的时候,我们并没有看到有 7 次重复的...选择最后一条 Events (方法前面内容已经讲了) 并将其内容使用 YAML 格式进行输出: (MoeLove) ➜ kubectl -n moelove get events non-exist-d9ddbdd84
让我们看一个使用常用的get 动词来检索 glasskube-system 命名空间中的所有资源的命令构建示例,并且输出采用 yaml 格式: kubectl get all --namespace glasskube-system...当您想要自定义输出结构、过滤或表示时,它非常方便。...kubectl events -n [resource-namespace] — for=[resource-kind]/[resource-name] 此命令获取与指定命名空间中特定资源相关的事件。...Kubectl 速查表 没有速查表,任何指南都是不完整的,对吧?...=[name] # Filtering Events by Type kubectl get events --field-selector type=Warning # Filtering Events
:Memory 表示基于RAM的临时文件系统tmpfs,空间受于内存,但性能非常好,通常用于为容器中的应用提供缓存空间 •sizeLimit:当前存储卷的空间限额,默认值为 nil,表示不限制;不过在...如下图所示: 2.创建Pod对象 kubectl apply -f vol-emptydir.yaml 3.查看Pod状态 Pod对象的详细信息中会显示存储卷的相关状态,包括其是否创建成功(在Events...以上每种检查动作都可能有以下三种返回状态 Success,表示通过了健康检查 Failure,表示没有通过健康检查 Unknown,表示检查动作失败 通过在目标容器中执行由用户自定义的命令来判定容器的健康状态...kubectl apply -f ngx-health.yaml 3.查看Pod运行状态 #容器创建 kubectl get pods -o wide | grep ngx-health ngx-health...created service/nginx-health-svc created 3.查看创建的资源对象 k8sops@k8s-master01:/$ kubectl get all -n nginx-health-ns
常用命令 Kubernetes Cheat Sheet Viewing Resource Information //查看资源信息 Nodes $ kubectl get no $ kubectl...] $ kubectl get ds [ds_name] -n [ns_name] -o yaml Events $ kubectl get events $ kubectl get events -n...kube-system $ kubectl get events -w logs $ kubectl logs [pod_name] $ kubectl logs --since=1h [pod_name...get all --all -namespaces Changing Resource Attributes //改变资源属性 Taint $ kubectl taint [node_name] [...//添加资源 Creating a Pod $ kubectl create -f [name_of_file] $ kubectl apply -f [name_of_file] $ kubectl
这是因为 Pod 是一个命名空间资源,且命令中没有提供命名空间。 直接使用 --namespace 会覆盖此行为。...例如,以下命令输出相同的结果: kubectl get pod pod1 kubectl get pods pod1 kubectl get po pod1 NAME:指定资源的名称。...如果省略名称,则显示所有资源的详细信息:kubectl get pods。 flags: 指定可选的参数。...) # 查看所有事件 kubectl get events --all-namespaces # 查看名为nginx对象的事件 kubectl get events --field-selector...involvedObject.name=nginx,involvedObject.namespace=default # 查看名为nginx的服务事件 kubectl get events --
策略执行是通过 Kubernetes events 来捕获的,Kyverno 还报告现有资源的策略违规行为。...然后就是下面使用 rules 属性定义的规则集合,match 用于表示匹配的资源资源,validate 表示验证方式,这里我们定义 kyverno: "?...*" 这样的标签表示必须有这样的一个标签 key。...➜ kubectl get clusterpolicy NAME BACKGROUND ACTION READY require-label true...事件来了解策略应用情况: ➜ kubectl get events -A -w ...... metallb-system 9m25s Warning PolicyViolation
这就需要用到强大的“kubectl get”命令了。 “kubectl get”命令我们经常使用,在这之前我们经常用其来查询资源,那么如何使用它来查看资源配置呢?...“-o”来查看资源配置,具体如以下实例所示: 查看指定Pod配置 kubectl get pods mssql-58b6bff865-xdxx8 -o yaml ?...想看所有的: kubectl get pods -o json 查看服务配置 kubectl get svc mssql -o yaml ?...Pod一直处于Pending状态,经诊断为资源不足 Pending一般情况下表示这个pod没有被调度到一个节点上。通常这是因为资源不足引起的。...解决方案有: 添加工作节点 移除部分Pod以释放资源 降低当前Pod的资源限制 Pod一直处于Waiting状态,经诊断为镜像拉取失败 如果一个pod卡在Waiting状态,则表示这个
这就需要用到强大的“kubectl get”命令了。 “kubectl get”命令我们经常使用,在这之前我们经常用其来查询资源,那么如何使用它来查看资源配置呢?...“-o”来查看资源配置,具体如以下实例所示: 查看指定Pod配置 kubectl get pods mssql-58b6bff865-xdxx8 -o yaml ?...想看所有的: kubectl get pods -o json 查看服务配置 kubectl get svc mssql -o yaml ?...Pod一直处于Pending状态,经诊断为资源不足 Pending一般情况下表示这个pod没有被调度到一个节点上。通常这是因为资源不足引起的。...解决方案有: 添加工作节点 移除部分Pod以释放资源 降低当前Pod的资源限制 Pod一直处于Waiting状态,经诊断为镜像拉取失败 如果一个pod卡在Waiting状态,则表示这个pod已经调试到节点上
Pod 是 Kubernetes 抽象出来的,表示一组一个或多个应用程序容器(如 Docker 或 rkt ),以及这些容器的一些共享资源。...主节点的自动调度考量了每个工作节点上的可用资源。...使用 kubectl 进行故障排除 kubectl get - 列出资源 kubectl describe - 显示有关资源的详细信息 kubectl logs - 打印 pod 和其中容器的日志 kubectl...2 3 11m # 但是没有达到我们预期的 pod 数量 # 查看当前的 pods $ kubectl get pods NAME...上述的 pods 表示有 3 个可用,有 2 个更新失败了 # 这意味着,在滚动更新过程中,新的版本启动失败了,老的丢掉了一个 # 这个时候使用回滚更新 $ kubectl rollout undo deployments
imagePullPolicy: Always name: nginx 新 pod 未成功部署 ➜ ~ kubectl get pods NAME READY STATUS RESTARTS...已创建资源配额/compute-resources 在具有资源配额限制的命名空间内创建新部署: kubectl create deploy nginx --image=nginx -n paymentsdeployment.apps.../nginx created 尽管已成功创建部署,但没有 Pod 存在: ➜ ~ kubectl get pods -n payments No resources found in payments...namespace 已创建部署,但是没有处于准备状态的 Pod,没有更新的 Pod,也没有可用的 Pod: ➜ ~ kubectl get deploy -n payments NAME READY...➜ ~ kubectl get events --sort-by=/metadata.creationTimestamp 当你的镜像已成功拉取,并且你的容器已创建,但你的运行时配置失败时,就会发生此错误
子资源的任何自定义资源之间的所需映射。...scaledjobs.keda.sh:ScaledJobs 表示事件源和 Kubernetes Job 之间的映射。...上面的消费者部署完成后可以看到现在是0个副本,这是因为现在没有任何事件产生,所以最小缩放到0个副本: ➜ kubectl get deploy rabbitmq-consumer NAME...我们可以通过下面的命令来观察消费者的变化: ➜ kubectl get deploy -w NAME READY UP-TO-DATE AVAILABLE AGE...同样这个时候我们也可以查看 HPA 资源对象的变化: ➜ kubectl get hpa NAME REFERENCE
Kubernetes 证书中的 CN 表示 User,O 表示 Group,看一个例子: 用 openssl 命令解析 kubelet 的客户端证书,kubelet 访问 Kube-apiserver...# cluster-admin ClusterRole 拥有所有资源的所有权限 $ kubectl get clusterrole cluster-admin -o yaml apiVersion: rbac.authorization.k8s.io...# system:kube-scheduler ClusterRole 拥有细分的权限 $ kubectl get clusterrole system:kube-scheduler -o yaml apiVersion...在 Kubectl 章节介绍了 system:masters 属于内置用户组,且默认拥有超级权限,所以 Kube-apiserver 可以去访问 Kubelet 操作资源 ServiceAccount...$ kubectl get rolebinding mysql-role -n test -o yaml apiVersion: rbac.authorization.k8s.io/v1 kind: RoleBinding
可以通过如下命令来验证: $ kubectl apply -f deploy/1.8+/ $ kubectl get pods -n kube-system -l k8s-app=metrics-server...这是因为我们上面创建的 Pod 对象没有添加 request 资源声明,这样导致 HPA 读取不到 CPU 指标信息,所以如果要想让 HPA 生效,对应的 Pod 资源必须添加 requests 资源声明...现在我们直接创建上面的资源对象即可: $ kubectl apply -f increase-mem-cm.yaml $ kubectl apply -f hpa-mem-demo.yaml $ kubectl...: $ kubectl apply -f hpa-mem.yaml horizontalpodautoscaler.autoscaling/nginx-hpa created $ kubectl get...比如 nginx:{group:"apps",resource:"deployment"} 这么写表示的就是将指标中 nginx 这个标签和 apps 这个 api 组中的 deployment 资源关联起来
KafkaSource 这个资源可以使用,所以直接执行 kubectl create -f kafka-source.yaml 的时候,会出错。...kubectl apply向etcd里注册对应的资源,所以informers说没有对应的资源。...: % kubectl get deployments NAME READY UP-TO-DATE AVAILABLE AGE example-foo...% kubectl get CustomResourceDefinition foos.samplecontroller.k8s.io NAME...CREATED AT foos.samplecontroller.k8s.io 2021-11-04T05:46:53Z % kubectl get Foo example-foo NAME
它表示卷的使用者,对PV的申请。即我们可以认为,PV是整体,PVC是申请其中的部分。 local型PV local类型的持久卷分配的是本地磁盘空间。...persistentVolumeReclaimPolicy选择Retain,表示资源回收需要手工进行。 local和nodeAffinity表示我们将在ubuntud的/tmp目录下分配卷空间。...绑定过程中状态的变化 我们创建上述资源PV。...: 此时PV因为绑定的PVC被删除,而其persistentVolumeReclaimPolicy选择了Retain,资源没有被回收,而变成了Released状态。...因为PV没有处于Available状态。
create -f pod.yaml pod/nginx-pod created 查看 # kubectl get pods NAME...# kubectl get pod NAME READY STATUS RESTARTS AGE my-nginx...,可以先查看下,pod在哪个节点上运行的,然后查看下容器的具体信息 查看是哪个节点 # kubectl get pods -o wide NAME...会把pod从service endpoints中剔除 Probe支持三种检查方法: httpGet: 发送HTTP请求,返回200-400范围状态码为成功 exec:执行shell命令,返回状态码为0 表示成功...HTTP/1.1" 404 170 "-" "kube-probe/1.13" "-" 查看pod的详细信息 kubectl describe pod nginx-pod 找到Events,查看信息
PV是集群资源,可以通过kubectl explain pv来查看如何配置,主要包括存储能力,访问模式,存储类型,回收信息等关键信息。...其中: ReadWriteOnce:表示具有读写权限,但是只能被一个node挂载一次 ReadOnlyMany:表示具有只读权限,可以被多个node多次挂载 ReadWriteMany:表示具有读写权限...PV总共有以下四种状态: Available(可用):表示可用状态,还未被任何 PVC 绑定 Bound(已绑定):表示 PVC 已经被 PVC 绑定 Released(已释放):PVC 被删除,但是资源还未被集群重新声明...PVC PVC(Persistent Volume Claim)用于表达用户对存储的需求,申请PVC会消耗掉PV的资源,可以通过kubectl explain pvc来查看帮助文档。...使用kubectl apply -f sc.yaml创建StorageClass,创建完成过后如下: $ kubectl get sc NAME PROVISIONER RECLAIMPOLICY
检查 Pod 事件:kubectl get events -n --field-selector involvedObject.name= Service...列出命名空间中的资源配额:kubectl get resourcequotas -n 2....列出命名空间中的自定义资源:kubectl get -n 2....查看最近的集群事件:kubectl get events --sort-by=.metadata.creationTimestamp 2....按特定命名空间过滤事件:kubectl get events -n 节点故障排除: 1.
检查 Pod 事件:kubectl get events -n --field-selector involvedObject.name= Service诊断...列出命名空间中的资源配额:kubectl get resourcequotas -n 2....列出命名空间中的自定义资源:kubectl get -n 2....查看最近的集群事件:kubectl get events --sort-by=.metadata.creationTimestamp 2....按特定命名空间过滤事件:kubectl get events -n 节点故障排除: 1.
领取专属 10元无门槛券
手把手带您无忧上云