五、Kubernetes(K8S):Kubectl常用命令详解

注意:后续技术分享,第一时间更新,以及更多更及时的技术资讯和学习技术资料,将在公众号CTO Plus发布,请关注公众号:CTO Plus 

Kubectl是Kubernetes命令行工具,用于管理Kubernetes集群资源和应用程序的部署、升级和扩展等。其作用包括但不限于:

1.创建、更新和删除应用程序、服务和负载均衡器等资源

2.管理集群节点的状态和部署

3.管理Kubernetes集群的配置和存储

4.监控集群和应用程序的状态

5.诊断和调试应用程序和集群故障

6.扩展和调整集群规模和资源使用

7.与Kubernetes API服务器通信

Kubectl是使用Kubernetes进行部署和管理的核心工具之一,使得管理员能够轻松地进行操作和管理,提高了Kubernetes的可用性和效率。

使用kubectl来管理Kubernetes集群。可以在 https://github.com/kubernetes/kubernetes 找到更多的信息。

kubectl 选项

      --alsologtostderr[=false]: 同时输出日志到标准错误控制台和文件。
      --api-version="": 和服务端交互使用的API版本。
      --certificate-authority="": 用以进行认证授权的.cert文件路径。
      --client-certificate="": TLS使用的客户端证书路径。
      --client-key="": TLS使用的客户端密钥路径。
      --cluster="": 指定使用的kubeconfig配置文件中的集群名。
      --context="": 指定使用的kubeconfig配置文件中的环境名。
      --insecure-skip-tls-verify[=false]: 如果为true,将不会检查服务器凭证的有效性,这会导致你的HTTPS链接变得不安全。
      --kubeconfig="": 命令行请求使用的配置文件路径。
      --log-backtrace-at=:0: 当日志长度超过定义的行数时,忽略堆栈信息。
      --log-dir="": 如果不为空,将日志文件写入此目录。
      --log-flush-frequency=5s: 刷新日志的最大时间间隔。
      --logtostderr[=true]: 输出日志到标准错误控制台,不输出到文件。
      --match-server-version[=false]: 要求服务端和客户端版本匹配。
      --namespace="": 如果不为空,命令将使用此namespace。
      --password="": API Server进行简单认证使用的密码。
  -s,--server="": Kubernetes API Server的地址和端口号。
      --stderrthreshold=2: 高于此级别的日志将被输出到错误控制台。
      --token="": 认证到API Server使用的令牌。
      --user="": 指定使用的kubeconfig配置文件中的用户名。
      --username="": API Server进行简单认证使用的用户名。
      --v=0: 指定输出日志的级别。
      --vmodule=: 指定输出日志的模块,格式如下:pattern=N,使用逗号分隔。

以下将按照分类对K8S常用命令进行详解

node

查看服务器节点

kubectl get nodes

查看服务器节点详情

kubectl get nodes -o wide

结果展示除了wide格式外还支持:custom-columns、custom-columns-file、go-template、go-template-file、json、jsonpath、jsonpath-as-json、jsonpath-file、name、template、templatefile、wide、yaml

节点打标签

kubectl label nodes <节点名称> labelName=<标签名称>

查看节点标签

kubectl get node --show-labels

删除节点标签

kubectl label node <节点名称> labelName-

pod

获取K8s集群下pod节点信息

kubectl get pod

查看pod节点详情

kubectl get pod -o wide

查看所有名称空间下的pod

kubectl get pod --all-namespaces

根据yaml文件创建pod

kubectl apply -f <文件名称>

根据yaml文件删除pod

kubectl delete -f <文件名称>

删除pod节点

kubectl delete pod <pod名称> -n <名称空间>

查看异常的pod节点

kubectl get pods -n <名称空间> | grep -v Running

查看异常pod节点的日志

kubectl describe pod <pod名称> -n <名称空间>

指定资源的信息

格式:kubectl get <resource_type>/<resource_name>,比如获取deployment nginx_app的信息

kubectl get deployment/nginx_app -o wide

对指定的资源进行格式化输出,比如输出格式为json、yaml等

kubectl get deployment/nginx_app -o json

对输出结果进行自定义,比如对pod只输出容器名称和镜像名称

kubectl get pod httpd-app-5bc589d9f7-rnhj7 -o custom-columns=CONTAINER:.spec.containers[0].name,IMAGE:.spec.containers[0].image

获取某个特定key的值还可以输入如下命令得到,此目录参照go template的用法,且命令结尾'\n'是为了输出结果换行

kubectl get pod httpd-app-5bc589d9f7-rnhj7 -o template --template='{{(index spec.containers 0).name}}{{"\n"}}'

还有一些可选项可以对结果进行过滤,可参照kubectl get --help说明

 本篇:https://blog.csdn.net/zhouruifu2015/article/details/130056507

svc

查看服务

kubectl get svc

查看服务详情

kubectl get svc -o wide

查看所有名称空间下的服务

kubectl get svc --all-namespaces

查看所有namespace的pods运行情况

kubectl get pods --all-namespaces

查看具体pods,记得后边跟namespace名字哦

kubectl get pods kubernetes-dashboard-76479d66bb-nj8wr --namespace=kube- system

查看pods具体信息

kubectl get pods -o wide kubernetes-dashboard-76479d66bb-nj8wr --namespace=kube-system

获取所有deployment

kubectl get deployment --all-namespaces

查看kube-system namespace下面的pod/svc/deployment 等等(-o wide 选项可以查看存在哪个对应的节点)

kubectl get pod /svc/deployment -n kube-system

列出该 namespace 中的所有 pod 包括未初始化的

kubectl get pods --include-uninitialized

查看deployment()

kubectl get deployment nginx-app

查看rc和servers

kubectl get rc,services

查看pods结构信息,对控制器和服务,node同样有效

kubectl describe pods xxxxpodsname --namespace=xxxnamespace

其他控制器类似,就是kubectl get 控制器 控制器具体名称

查看pod日志

kubectl logs $POD_NAME

查看pod变量

kubectl exec my-nginx-5j8ok -- printenv | grep SERVICE

集群

查看集群健康状态

kubectl get cs

集群核心组件运行情况

kubectl cluster-info

表空间名

kubectl get namespaces

版本

kubectl version

查看事件

kubectl get events

获取全部节点

kubectl get nodes

删除节点

kubectl delete node k8s2

kubectl rollout status deploy nginx-test

kubectl get deployment --all-namespaces

kubectl get svc --all-namespaces

创建资源

通过文件或者命令创建

kubectl create -f ./nginx.yaml # 创建资源

创建+更新,可以重复使用(常用

kubectl apply -f xxx.yaml

创建当前目录下的所有yaml资源

kubectl create -f .

使用多个文件创建资源

kubectl create -f ./nginx1.yaml -f ./mysql2.yaml

通过文件创建一个Deployment

kubectl create -f /path/to/deployment.yaml

cat /path/to/deployment.yaml | kubectl create -f -

使用目录下的所有清单文件来创建资源

kubectl create -f ./dir

使用 url 来创建资源

kubectl create -f https://git.io/vPieo

创建带有终端的pod

kubectl run -i --tty busybox --image=busybox

启动一个 redis/nginx实例

kubectl run nginx --image=nginx # 启动一个 nginx 实例

kubectl run nginx --image=redis

启动多个pod

kubectl run mybusybox --image=busybox --replicas=5

通过kubectl命令直接创建

kubectl run nginx_app --image=nginx:1.9.1 --replicas=3

获取 pod 和 svc 的文档

kubectl explain pods,svc

删除

根据label删除:

kubectl delete pod -l app=flannel -n kube-system

删除 pod.json 文件中定义的类型和名称的 pod

kubectl delete -f ./pod.json

删除名为"baz"的 pod 和名为"foo"的 service

kubectl delete pod,service baz foo

删除具有 name=myLabel 标签的 pod 和 serivce

kubectl delete pods,services -l name=myLabel

删除具有 name=myLabel 标签的 pod 和 service,包括尚未初始化的

kubectl delete pods,services -l name=myLabel --include-uninitialized

删除 my-ns namespace下的所有 pod 和 serivce,包括尚未初始化的

kubectl -n my-ns delete po,svc --all

强制删除

kubectl delete pods prometheus-7fcfcb9f89-qkkf7 --grace-period=0 --force

kubectl delete deployment kubernetes-dashboard --namespace=kube-system

kubectl delete svc kubernetes-dashboard --namespace=kube-system

kubectl delete -f kubernetes-dashboard.yaml

强制替换,删除后重新创建资源。会导致服务中断。

kubectl replace --force -f ./pod.json

更新资源

滚动更新 pod frontend-v1

kubectl rolling-update python-v1 -f python-v2.json

更新资源名称并更新镜像

kubectl rolling-update python-v1 python-v2 --image=image:v2

更新 frontend pod 中的镜像

kubectl rolling-update python --image=image:v2

退出已存在的进行中的滚动更新

kubectl rolling-update python-v1 python-v2 --rollback

基于 stdin 输入的 JSON 替换 pod

cat pod.json | kubectl replace -f -

kubectl replace:使用配置文件来替换资源

kubectl replace -f /path/to/new_nginx_app.yaml

为 nginx RC 创建服务,启用本地 80 端口连接到容器上的 8000 端口

kubectl expose rc nginx --port=80 --target-port=8000

更新单容器 pod 的镜像版本(tag)到 v4

kubectl get pod nginx-pod -o yaml | sed 's/\(image: myimage\):.*$/\1:v4/' | kubectl replace -f -

添加标签

kubectl label pods nginx-pod new-label=awesome

添加注解(更新资源的注解)

kubectl annotate pods nginx-pod icon-url=http://goo.gl/XXBTWq

自动扩展 deployment “foo”

kubectl autoscale deployment foo --min=2 --max=10

更新资源kubectl patch

使用补丁修改、更新某个资源的字段,比如更新某个node

kubectl patch node/node-0 -p '{"spec":{"unschedulable":true}}'

kubectl patch -f node-0.json -p '{"spec": {"unschedulable": "true"}}'

编辑/更新资源

相当于先用get去获取资源,然后进行更新,最后对更新后的资源进行apply

编辑名为 docker-registry 的 service

kubectl edit svc/docker-registry

使用其它编辑器

KUBE_EDITOR="nano" kubectl edit svc/docker-registry

修改启动参数

vim /etc/systemd/system/kubelet.service.d/10-kubeadm.conf

动态伸缩pod

将foo副本集变成3个

kubectl scale --replicas=3 rs/foo

缩放“foo”中指定的资源。

kubectl scale --replicas=3 -f foo.yaml

将deployment/mysql从2个变成3个

kubectl scale --current-replicas=2 --replicas=3 deployment/mysql

变更多个控制器的数量

kubectl scale --replicas=5 rc/foo rc/bar rc/baz

查看变更进度

kubectl rollout status deploy deployment/mysql

label 操作

增加节点lable值 spec.nodeSelector: zone: north 指定pod在哪个节点

kubectl label:添加label值 kubectl label nodes node1 zone=north

增加lable值 key=value

kubectl label pod redis-master-1033017107-q47hh role=master

删除lable值

kubectl label pod redis-master-1033017107-q47hh role-

修改lable值

kubectl label pod redis-master-1033017107-q47hh role=backend –overwrite

滚动升级

配置文件滚动升级

kubectl rolling-update:滚动升级 kubectl rolling-update redis-master -f redis- master-controller-v2.yaml

命令升级

kubectl rolling-update redis-master --image=redis-master:2.0

pod版本回滚

kubectl rolling-update redis-master --image=redis-master:1.0 –rollback

etcdctl 常用操作

检查网络集群健康状态

etcdctl cluster-health

带有安全认证检查网络集群健康状态

etcdctl --endpoints=https://192.168.71.221:2379 cluster-health

etcdctl member list

etcdctl set /k8s/network/config ‘{ “Network”: “10.1.0.0/16” }’

etcdctl get /k8s/network/config

交互

dump 输出 pod 的日志(stdout)

kubectl logs nginx-pod

dump 输出 pod 中容器的日志(stdout,pod 中有多个容器的情况下使用)

kubectl logs nginx-pod -c my-container

流式输出 pod 的日志(stdout)

kubectl logs -f nginx-pod

流式输出 pod 中容器的日志(stdout,pod 中有多个容器的情况下使用)

kubectl logs -f nginx-pod -c my-container

交互式 shell 的方式运行 pod

kubectl run -i --tty busybox --image=busybox -- sh

连接到运行中的容器

kubectl attach nginx-pod -i

转发 pod 中的 6000 端口到本地的 5000 端口

kubectl port-forward nginx-pod 5000:6000

在已存在的容器中执行命令(只有一个容器的情况下)

kubectl exec nginx-pod -- ls /

在已存在的容器中执行命令(pod 中有多个容器的情况下)

kubectl exec nginx-pod -c my-container -- ls /

显示指定 pod和容器的指标度量

kubectl top pod POD_NAME --containers

进入pod

kubectl exec -ti podName /bin/bash

调度配置

标记 my-node 不可调度

kubectl cordon k8s-node

清空 my-node 以待维护

kubectl drain k8s-node

标记 my-node 可调度

kubectl uncordon k8s-node

显示 my-node 的指标度量

kubectl top node k8s-node

将当前集群状态输出到 stdout

kubectl cluster-info dump

将当前集群状态输出到 /path/to/cluster-state

kubectl cluster-info dump --output-directory=/path/to/cluster-state

如果该键和影响的污点(taint)已存在,则使用指定的值替换

kubectl taint nodes foo dedicated=special-user:NoSchedule

查看kubelet进程启动参数

ps -ef | grep kubelet

查看日志:

journalctl -u kubelet –f

导出配置文件

导出proxy

kubectl get ds -n kube-system -l k8s-app=kube-proxy -o yaml>kube-proxy- ds.yaml

导出kube-dns

kubectl get deployment -n kube-system -l k8s-app=kube-dns -o yaml >kube-dns- dp.yaml

kubectl get services -n kube-system -l k8s-app=kube-dns -o yaml >kube-dns- services.yaml

导出所有 configmap

kubectl get configmap -n kube-system -o wide -o yaml > configmap.yaml

复杂操作命令

删除kube-system下Evicted状态[WU1] 的所有pod

kubectl get pods -n kube-system |grep Evicted| awk ‘{print $1}’|xargs kubectl delete pod -n kube-system

扩展阅读:

kube-system是Kubernetes系统默认的命名空间,其中包含了许多系统的控制器和核心服务,状态主要可以分为以下几种:

1. Running:运行状态,表示该Pod组件正在运行中;

2. Completed:完成状态,表示该组件已经完成了它的任务;

3. CrashLoopBackOff:崩溃循环状态,表示该组件在启动时遇到了错误,并尝试重启;

4. ImagePullBackOff:拉取镜像失败状态,表示该组件无法拉取所需的镜像;

5. ErrImagePull:拉取镜像错误状态,表示该组件无法拉取所需镜像并且已达到重试上限;

6. Pending:挂起状态,表示该组件正在等待资源分配(等待调度);

7. Unknown:未知状态,表示该Pod组件当前的状态无法被确认,如该组件在启动时出现了错误并被误报为成功。

8. Evicted:表示Kubernetes系统已经将一个Pod从其所在的节点上驱逐出去,通常发生在与节点资源不足有关的错误情况下,例如内存、CPU、存储等。Pod被驱逐后,将会停止运行并且不会自动重启,需要手动重启Pod以重新启动应用程序。

9. Succeeded:Pod的所有容器已经成功完成了它们的任务。

10. Failed:Pod的某个容器已经失败。

cordon & uncordon命令

设置是否能够将pod调度到该节点上。

不可调度

kubectl cordon node-0

当某个节点需要维护时,可以驱逐该节点上的所有pods(会删除节点上的pod,并且自动通过上面命令设置该节点不可调度,然后在其他可用节点重新启动pods)

kubectl drain node-0

待其维护完成后,可再设置该节点为可调度

kubectl uncordon node-0

taint命令

目前仅能作用于节点资源,一般这个命令通常会结合pod的tolerations字段结合使用,对于没有设置对应toleration的pod是不会调度到有该taint的节点上的,这样就可以避免pod被调度到不合适的节点上。一个节点的taint一般会包括key、value和effect(effect只能在NoSchedule,PreferNoSchedule,NoExecute中取值)。

设置taint

kubecl taint nodes node-0 key1=value1:NoSchedule

移除taint

kubecl taint nodes node-0 key1:NoSchedule-

如果pod想要被调度到上述设置了taint的节点node-0上,则需要在该pod的spec的tolerations字段设置:

tolerations:
- key: "key1"
  operator: "Equal"
  value: "value1"
  effect: "NoSchedule"

# 或者
tolerations:
- key: "key1"
  operator: "Exists"
  effect: "NoSchedule"

部署命令

部署命令包括资源的运行管理命令、扩容和缩容命令和自动扩缩容命令。

rollout命令

管理资源的运行,比如eployment、Daemonet、StatefulSet等资源。

查看部署状态:比如更新deployment/nginx_app中容器的镜像后查看其更新的状态。

kubectl set image deployment/nginx_app nginx=nginx:1.9.1

kubectl rollout status deployment/nginx_app

资源的暂停及恢复:发出一次或多次更新前暂停一个 Deployment,然后再恢复它,这样就能在Deployment暂停期间进行多次修复工作,而不会发出不必要的rollout。

暂停

kubectl rollout pause deployment/nginx_app

完成所有的更新操作命令后进行恢复

kubectl rollout resume deployment/nginx_app

回滚:如上对一个Deployment的image做了更新,但是如果遇到更新失败或误更新等情况时可以对其进行回滚。

回滚之前先查看历史版本信息

kubectl rollout history deployment/nginx_app

回滚

kubectl rollout undo deployment/nginx_app

也可以指定版本号回滚至指定版本

kubectl rollout undo deployment/nginx_app --to-revision=<version_index>

scale命令

对一个Deployment、RS、StatefulSet进行扩/缩容。

扩容

kubectl scale deployment/nginx_app --replicas=5

缩容,把对应的副本数设置的比当前的副本数小即可,另外,还可以针对当前的副本数目做条件限制,比如当前副本数是5则进行缩容至副本数目为3

kubectl scale --current-replicas=5 --replicas=3 deployment/nginx_app

autoscale命令

通过创建一个autoscaler,可以自动选择和设置在K8s集群中Pod的数量。

基于CPU的使用率创建3-10个pod

kubectl autoscale deployment/nginx_app --min=3 --max=10 --cpu_percent=80

维护环境相关命令

重启kubelet服务

systemctl daemon-reload

systemctl restart kubelet

映射端口允许外部访问

kubectl expose deployment/nginx_app --type='NodePort' --port=80

通过kubectl get services -o wide来查看被随机映射的端口,这样就可以通过node的外部IP和端口来访问nginx服务了

转发本地端口访问Pod的应用服务程序

kubectl port-forward nginx_app_pod_0 8090:80

这样本地可以访问:curl -i localhost:8090

在创建或启动某些资源的时候没有达到预期结果,可以使用如下命令先简单进行故障定位

kubectl describe deployment/nginx_app

kubectl logs nginx_pods

kubectl exec nginx_pod -c nginx-app <command>

集群内部调用接口(比如用curl命令),可以采用代理的方式,根据返回的ip及端口作为baseurl

kubectl proxy &

查看K8s支持的完整资源列表

kubectl api-resources

查看K8s支持的api版本

kubectl api-versions


微信公众号搜索【CTO Plus】关注后,获取更多,我们一起学习交流。


参考资料

[1]官网:https://kubernetes.io/zh-cn/

[2]文社区中文文档:http://docs.kubernetes.org.cn/

[3] Deploy on Kubernetes

[4] minikube start | minikube

本篇:https://blog.csdn.net/zhouruifu2015/article/details/130056507

四、Kubernetes(K8S):kubectl概述、安装、设置https://blog.csdn.net/zhouruifu2015/article/details/130057847 

原文地址:https://blog.csdn.net/zhouruifu2015/article/details/130056507

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


文章浏览阅读942次。kube-controller-manager 和 kubelet 是异步工作的,这意味着延迟可能包括任何的网络延迟、apiserver 的延迟、etcd 延迟,一个节点上的负载引起的延迟等等。当 Kubernetes 中 Node 节点出现状态异常的情况下,节点上的 Pod 会被重新调度到其他节点上去,但是有的时候我们会发现节点 Down 掉以后,Pod 并不会立即触发重新调度,这实际上就是和 Kubelet 的状态更新机制密切相关的,Kubernetes 提供了一些参数配置来触发重新调度的时间。_node-monitor-period
文章浏览阅读3.8k次。上篇文章详细介绍了弹性云混部的落地历程,弹性云是滴滴内部提供给网约车等核心服务的容器平台,其基于 k8s 实现了对海量 node 的管理和 pod 的调度。本文重点介绍弹性云的调度能力,分为以下部分:调度链路图:介绍当前弹性云调度体系链路,对架构体系有一个初步的认知k8s 调度能力的运用:整体介绍弹性云现在用到的 k8s 调度能力和对其的增强k8s 版本的升级:介绍到从 k8s 1.12 到 1...._滴滴机房 腾讯
文章浏览阅读897次。对于cpu来说,这种分配方式并不会有太大问题,因为cpu可以灵活调度,numa调度时我们只计算绑定了numa cpu的pod是可以接受的,但是对于内存来说,numa node上申请了的内存无法做到随时迁移,这就会导致调度器视角numa node的mem资源足够,但是等到pod真正使用时,由于没有绑定numa node的pod申请的内存,导致numa node的mem资源不足,造成swap中断或者远端内存申请,这会对绑定mem的pod来带来性能损耗。忽略了没有绑定numa node的pod资源。_kubectl numa
文章浏览阅读796次,点赞17次,收藏15次。只要在Service定义中设置了ClusterIp:None,就定义了一个HeadLess Service, 它与普通的Service关键区别在于它没有ClusterIp地址,如果解析HeadLess Service的DNS域名,则会返回该Service对应的全部Pod的EndPoint列表,这就意味着客户端是直接与后端的pod建立了TCP/IP链接进行通信的。一个Label是一个键值对。注解:属于资源对象的元数据,可以被理解为一种特殊的标签,不过更多的是与程序挂钩,通常用于实现资源对象属性的自定义扩展。
文章浏览阅读763次。但是此时如果配置成 NONE, 租户创建成功了,但是无法创建资源文件,也就是无法上传文件,可能 dolphinscheduler 团队就想着将文件上传到 hdfs,暂不支持本地。需要将 resource.storage.type 置为 NONE, 因为我之前用的 1.3.6 版本的时候,即使资源文件存在本地文件也需要配置成 hdfs。_[error] 2023-10-24 18:10:43.762 +0800 org.apache.dolphinscheduler.api.servic
文章浏览阅读2.7k次,点赞2次,收藏13次。公司使用的是交老的k8s版本(1.16),由于老版本的K8s对于现在很多新特性不支持,所以需要升级到新版本。目前2023年7月11日最新版本的k8s是v1.27.3。通过参考官方文档进行k8s部署工作。其中涉及到操作系统配置、防火墙配置、私有镜像仓库等。_k8s最新版本
文章浏览阅读1.8w次,点赞14次,收藏27次。能节省你在kubeadm init 时遇到问题的排错时间⌚️。整合了网上大佬
文章浏览阅读1.1k次,点赞2次,收藏7次。具体操作步骤可以参考之前的教程,建议是先安装一台,然后克隆虚拟机,这样速度快。注意:在克隆时记得修改Mac地址、IP地址、UUID和主机名。(最后别忘了保存下快照~)_部署k8s集群
文章浏览阅读863次,点赞23次,收藏16次。当部署完 Kubernetes,便拥有了一个完整的集群。一组工作机器,称为节点, 会运行容器化应用程序。每个集群至少有一个工作节点。工作节点会 托管Pod ,而 Pod 就是作为应用负载的组件。控制平面管理集群中的工作节点和Pod。说人话版本:集群:cluster,多个几点被组织到一起共同为系统提供服务过程称之为集群。本质上是将承载同一个软件服务节点组织到一起,称之为该软件(服务)的集群,当然集群中的节点身份地位是不一样的。k8s集群也是如此,他也是多个节点组成。
文章浏览阅读943次。Rancher是一个开源的企业级多集群Kubernetes管理平台,实现了Kubernetes集群在混合云+本地数据中心的集中部署与管理,以确保集群的安全性,加速企业数字化转型。Rancher 1.0版本在2016年就已发布,时至今日,Rancher已经成长为企业在生产环境中运行容器和Kubernetes的首要选择。_rancher管理k8s
文章浏览阅读742次,点赞2次,收藏3次。本篇来讲解如何在centos下安装部署高可用k8s集群。_kubeadm ha keepalived + nginx
文章浏览阅读1.9k次,点赞21次,收藏25次。那么这个空间设置成内存的2倍大小。点击IPv4设置--手动--添加--设置ip--设置DNS服务器,最后点击--“保存”;首先选中--“本地标准磁盘”,存储配置--自定义分区,点击--“完成”;在--主机名--设置主机名:(例如k8s-master01),点击--点击+,设置--挂载点/boot--期望容量,点击--添加挂载点;点击--+--挂载点swap--期望容量,点击--“添加挂载点”;默认选择--亚洲--上海,并调整日期和时间,点击--“完成”;设备类型--确认--LVM,卷组--选择“修改”;_euler 服务器搭建
文章浏览阅读1k次。在1.25版本的k8s集群中部署gpu-manage时,虽然显示gpu节点上gpu-manage的pod实例都是running状态,但是给pod申领。既可以用源码的Makefile自动编译打包成新的镜像,但是源码的。说明gpu-manager和容器运行时接口通信失败了。编译后的镜像在1.25版本的k8s中可以正常使用。,但是在k8s1.23版本之后,接口路径已经改为。资源时,却始终找不到有资源的节点。,另外有一些依赖需要国际上的支持。可以看到这里用的运行时接口是。查看节点的详情时,返回的。_launch gpu manager 报错 can't create container runtime manager: context dead
文章浏览阅读1k次,点赞18次,收藏16次。SelfLink:API的资源对象之一,表示资源对象在集群当中自身的一个连结,self-Link是一个唯一的标识号,可以用于标识k8s集群当中的每个资源的对象。容器里使用的配置,在provisioner当中定义好环境变量,传给容器,storageclass的名称,NFS服务器的地址,NFS的目录。NFS的provisionner的客户端以pod的方式运行在集群当中,监听k8s集群当中PV的请求,然后动态的创建于NFS相关的PV。命名为 nfs-client-provisioner-clusterrole。
文章浏览阅读6.3k次,点赞2次,收藏20次。k8s证书过期解决方案之替换证书_k8s证书过期如何更换
文章浏览阅读1k次。KMS,Key Management Service,即密钥管理服务,在K8S集群中,以驱动和插件的形式启用对Secret,Configmap进行加密。以保护敏感数据
文章浏览阅读888次。exporter对于云服务的监控还是很不完美,毕竟每家都有自己的护城河。自动发现多实例这样的借助consul 阿波罗这样的会简单一些。aws可以借助cloudwatch这样的导入模板到grafana中。还是希望能将类似腾讯云云监控中的这些指标采集到prometheus中,但是这过程应该还很遥远grafana出图 prometheus查询语法这些东西有时间的好好研究一下。报警有必要进行分级别,收敛配置一下!_command: - "-redis.password-file=/redis_passwd.json
文章浏览阅读1k次。可以在此处(https://cloud.google.com/kubernetes-engine/docs/how-to/kube-dns)和此处(https://www.digitalocean.com/community/tutorials/an-introduction-to-the-kubernetes-dns-service)找到更多的详细信息。-or-ipvs/)和此处(https://arthurchiao.art/blog/cracking-k8s-node-proxy/)。_k8s默认命名空间
文章浏览阅读4.9k次,点赞11次,收藏32次。如果运行runc命令时提示:runc: error while loading shared libraries: libseccomp.so.2: cannot open shared object file: No such file or directory,则表明runc没有找到libseccomp,需要检查libseccomp是否安装,本次安装默认就可以查询到。所有主机均需要操作。所有主机均需要操作。所有主机均需要操作。所有主机均需要操作。所有主机均需要操作。所有主机均需要操作。_kubernetes 1.28
文章浏览阅读3.6w次,点赞118次,收藏144次。Canal 提供了网络功能,使得 Kubernetes 集群中的 Pod 可以相互通信,并与集群外部的服务进行通信。它通过网络插件的方式,为每个 Pod 分配唯一的 IP 地址,并管理网络流量的路由和转发。此外,Canal 还支持网络策略,用于定义 Pod 之间的通信规则和安全策略。Canal 基于 Calico 和 Flannel 项目,结合了二者的优点。它使用 Calico 的数据平面,提供高性能的网络转发和安全特性,同时使用 Flannel 的控制平面,实现 IP 地址管理和网络策略的配置。_k8s canal