minikube配置CRI-O作为runtime并指定flannel插件

  使用crio作为runtime后,容器的启动将不依赖docker相关的组件,容器进程更加简洁。如下使用crio作为runtime启动一个nginx的进程信息如下:根进程(1)->conmon->nginx。conmon作用于crio和runc(OCI实现)之间,用于在crio启动容器后托管容器,更多参见conmon

root     15586     1  0 16:49 ?        00:00 /usr/local/bin/conmon --syslog -c a4f089f6b251c6269e2f79c41cec0317f4a65729b6075c77bbf4337206050501 -n k8s_nginx-test_nginx-test-24cjg_default_55bbcfe7-d63c-468b-bbcc-35a8b6c71eb9
root     15609 15586  00 nginx: master process nginx -g daemon off;

 

安装minikube

安装cri-o(以下步骤来自官方文档):

  • 安装依赖库
yum install -y \
  btrfs-progs-devel \
  containers-common \
  device-mapper-devel \
  git \
  glib2-devel \
  glibc-static \
  go \
  gpgme-devel \
  libassuan-devel \
  libgpg-error-devel \
  libseccomp-devel \
  libselinux-devel \
  pkgconfig \
  runc
  • 编译CRI-O,在编译CRI-O时可以指定Build-tag。当前的CRI-O需要golang 12.x版本来编译
git clone https://github.com/cri-o/cri-o # or your fork
cd cri-o
make
sudo make install
  • 编译Conmon
git clone https:github.com/containers/conmon
cd conmon
make
sudo make install

crio的配置文件默认为/etc/crio/crio.conf,可以通过命令crio config --default > /etc/crio/crio.conf来生成默认配置文件。

设置CNI网络(以下步骤来自官方文档)

git clone https:github.com/containernetworking/plugins
cd plugins
git checkout v0.8.1
./build_linux.sh # or build_windows.sh
sudo mkdir -p /opt/cni/bin
sudo cp bin/* /opt/cni/bin/
  • 编译完CNI之后,把/opt/cni/bin中的二进制文件拷贝到/etc/crio/crio.confcrio.network.plugin_dir目录,默认为/usr/libexec/cni;并将cni配置放到crio.network.network_dir目录

启动CRI-O

  • 在cri-o的源码目录下执行如下步骤,启动CRI-O
sudo make install.systemd
sudo systemctl daemon-reload
sudo systemctl enable crio
sudo systemctl start crio

使用crio-status命令

  • 使用crio-status config可以查看当前crio的配置

安装CRI-O命令行工具crictl

  • crictl用法与docker命令类似,可以参见官方文档
# go get github.com/kubernetes-sigs/cri-tools/cmd/crictl
# cp /root/go/bin/crictl /usr/local/bin
# crictl --runtime-endpoint unix:///var/run/crio/crio.sock version Version: 0.1.0 RuntimeName: cri-o RuntimeVersion: 1.15.1-dev RuntimeApiVersion: v1alpha1
  • crictl默认会读取/etc/crictl.yaml中的runtime-endpoint配置
# cat /etc/crictl.yaml
runtime-endpoint: unix:var/run/crio/crio.sock
image-endpoint: unix:var/run/crio/crio.sock

启动minikube并配置使用CRI-O

minikube start --container-runtime=cri-o --vm-driver=none

crictl简单使用

在启动minikube之后会启动相关组件pod,使用circtl ps可以看到相关的容器信息,最后一列为POD ID。更多参见crictl

[root@iZj6cid8uez7g44i1t0k7tZ net.d]# crictl ps
CONTAINER           IMAGE                                                                                                             CREATED             STATE               NAME                      ATTEMPT             POD ID
b69e8be1ef2b0       gcr.io/k8s-minikube/storage-provisioner@sha256:088daa9fcbccf04c3f415d77d5a6360d2803922190b675cb7fc88a9d2d91985a   About an hour ago   Running             storage-provisioner                          282d5beebf847
dd57045952649       bf261d157914477ee1a5969d28ec687f3fbfc9fb5a664b22df78e57023b0e03b                                                  About an hour ago   Running             coredns                                      4f7a8f3cac5c4
a9df5247ede0f       bf261d157914477ee1a5969d28ec687f3fbfc9fb5a664b22df78e57023b0e03b                                                  About an hour ago   Running             coredns                                      6448effa2f7cd
dc1027c8d94c5       c21b0c7400f988db4777858edd13b6d3930d62d7ccf026d2415485a52037f384                                                  About an hour ago   Running             kube-proxy                                   0436f736f2a4a
25cb103bc2e1e       k8s.gcr.io/kube-addon-manager@sha256:3e315022a842d782a28e729720f21091dde21f1efea28868d65ec595ad871616             About an hour ago   Running             kube-addon-manager                           85ceee77c5c70
cf7378a82993d       301ddc62b80b16315d3c2653cf3888370394277afb3187614cfa20edc352ca0a                                                  About an hour ago   Running             kube-scheduler                               baf3c10a81831
60d9bcf7a4b83       06a629a7e51cdcc81a5ed6a3e6650348312f20c954ac52ee489a023628ec9c7d                                                  About an hour ago   Running             kube-controller-manager                      877a92f202a5f
7a67b324cd8c7       b2756210eeabf84f3221da9959e9483f3919dc2aaab4cd45e7cd072fcbde27ed                                                  About an hour ago   Running             etcd                                         74fe384e1645b
355ba11ac783f       b305571ca60a5a7818bda47da122683d75e8a1907475681ee8b1efbd06bff12e                                                  About an hour ago   Running             kube-apiserver            0                   d112f1dc64113

使用crictl inspect CONTAINER_ID可以查看容器的详细信息,使用circtl inspect POD_ID查看pod的详细信息。crictl inspect CONTAINER_ID|grep sandboxId出来的值就是该容器对应的pod的POD_ID。

 配置使用flannel插件

使用如下方式启动minikube

minikube start \
    --extra-config=controller-manager.allocate-node-cidrs=true \
    --extra-config=controller-manager.cluster-cidr=10.233.64.0/18 \
    --extra-config=kubelet.network-plugin=cni \
    --extra-config=kubelet.pod-cidr= \
    --network-plugin=cni \
    --container-runtime=cri-o \
    --vm-driver=none

按照官方命令安装flannel插件,并查看coredns是否正常启动(cni启动之前coredns处于pending状态)。执行下面命令前需要确保/etc/cni/net.d/为空(flannel自动生成)或配置文件正确,否则会有错误

kubectl apply -f https:raw.githubusercontent.com/coreos/flannel/2140ac876ef134e0ed5af15c65e414cf26827915/Documentation/kube-flannel.yml

如果coredns出现如下错误,说明/etc/cni/net.d/中的配置文件版本字段错误,可以参考flannel官方配置,将cniVersion字段修改为"0.3.1",这样coredns稍后会正常启动。使用crictl inspectp POD_ID可以看到network设置为minikube启动参数--extra-config=kubelet.pod-cidr指定的值

cannot convert version ["" "0.1.0" 0.2.0"] to 0.4.0

正常启动后可以在/run/flannel/subnet.env中看到配置的flannel信息,

# cat /run/flannel/subnet.env
FLANNEL_NETWORK=10.244.0.0/16
FLANNEL_SUBNET=64.1/24
FLANNEL_MTU=1450
FLANNEL_IPMASQ=true

查看本地接口,可以看到flannel接口创建成功,后续新创建的pod将使用flannel网络

]# ip link
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    link/loopback 00 brd 00
2: eth0: <BROADCAST,MULTICAST,1)">1500 qdisc pfifo_fast state UP mode DEFAULT group 
    link/ether 16:3e:04:eb:0e brd ff:ff:ff:ff:ff:ff
3: mybridge: <NO-CARRIER,BROADCAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group 
    link/ether 0a:be:69:1e:02:70 brd ff:ff:ff:ff:ff:ff
7: flannel.1: <BROADCAST,1)">1450 qdisc noqueue state UNKNOWN mode DEFAULT group default06:66:cd:4f:d2:9a brd ff:ff:ff:ff:ff:ff
8: cni0: <BROADCAST,1)">1450 qdisc noqueue state UP mode DEFAULT group 85:cf:25:dd brd ff:ff:ff:ff:ff:ff
301: veth1b2b30e0@if3: <BROADCAST,1)">1450 qdisc noqueue master cni0 state UP mode DEFAULT group 
    link/ether 8e:47:4b:b8:10:be brd ff:ff:ff:ff:ff:ff link-netnsid 0
302: veth2147d829@if3: <BROADCAST,1)">
    link/ether fa:3f:fe:5d:91:82 brd ff:ff:ff:ff:ff:ff link-netnsid 1
303: veth54baeef4@if3: <BROADCAST,1)">
    link/ether 9a:99:0f:82:ff:34 brd ff:ff:ff:ff:ff:ff link-netnsid 2

 flannel原理如下

 flannel支持Vxlan,Host-gw和UDP模式,其中UDP一般用于debug模式,可在kube-system命名空间的configmap kube-flannel-cfg中查看flannel的运行模式。更多参见官方文档

TIPS:

  • crio主要有如下4个配置文件
File Description
crio.conf(5) CRI-O Configuration file
policy.json(5) Signature Verification Policy File(s)
registries.conf(5) Registries Configuration file
storage.conf(5) Storage Configuration file
  • minikube启动出现:sudo: crictl: command not found,解决办法:将crictl放到/usr/bin目录,参考该issue。原因是/etc/sudoers的secure_path中没有该路径
  • minikube启动出现:[certs] certificate apiserver-kubelet-client not signed by CA certificate ca: crypto/rsa: verification error,解决办法:rm /var/lib/minikube/certs,参考该issue

参考:

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


最近一直在开发Apworks框架的案例代码,同时也在一起修复Apworks框架中的Bug和一些设计上的不足。遇到的一个普遍问题是,代码的调试过程需要依赖很多外部系统,比如MongoDB、PostgreSQL、RabbitMQ等。当然可以在本机逐一安装这些服务,然后对服务进行配置,使其满足自己开发调试
最近每天都在空闲时间努力编写Apworks框架的案例代码WeText。在文本发布和处理微服务中,我打算使用微软的SQL Server for Linux来做演示,于是也就在自己的docker-compose中加入了MS SQL Server的服务。其实在Docker中运行SQL Server是非常容
在《Kubernetes中分布式存储Rook-Ceph部署快速演练》文章中,我快速介绍了Kubernetes中分布式存储Rook-Ceph的部署过程,这里介绍如何在部署于Kubernetes的ASP.NET Core MVC的应用程序中使用Rook-Ceph所创建的存储对象。 构建ASP.NET C
最近在项目中有涉及到Kubernetes的分布式存储部分的内容,也抽空多了解了一些。项目主要基于Rook-Ceph运行,考虑到Rook-Ceph部署也不那么简单,官方文档的步骤起点也不算低,因此,在整合官方文档的某些步骤的基础上,写篇文章简单总结一下。 Rook-Ceph是Kubernetes中分布
CentOS下Docker与.netcore(一) 之 安装 CentOS下Docker与.netcore(二) 之 Dockerfile CentOS下Docker与.netcore(三)之 三剑客之一Docker-Compose CentOS下Docker与.netcore(四)之 三剑客之一D
CentOS下Docker与.netcore(一) 之 安装 CentOS下Docker与.netcore(二) 之 Dockerfile CentOS下Docker与.netcore(三)之 三剑客之一Docker-Compose CentOS下Docker与.netcore(四)之 三剑客之一D
构建镜像最具挑战性的一点是使镜像大小尽可能的小。Dockerfile中的每条指令都为图像添加了一个图层,您需要记住在移动到下一层之前清理任何不需要的工件。对于多阶段构建,您可以在Dockerfile中使用多个FROM语句。每个FROM指令可以使用不同的基础,并且每个指令都开始一个新的构建。您可以选择
本文介绍compose配置文件参数的使用,熟练编写compose文件 [root@docker lnmp]# cat lnmp.yaml version: &#39;3&#39; services: nginx: build: /root/docker_demo/nginx/ ports: - &q
环境 docker-machine主机:192.168.1.9 docker主机:192.168.1.10 步骤: 安装docker-machine 创建ssh密钥对,实现两主机无密登录 创建docker主机,命名host1 变更docker环境变量 运行容器查看两端是否同步 镜像容器同步测试成功
CentOS下Docker与.netcore(一) 之 安装 CentOS下Docker与.netcore(二) 之 Dockerfile CentOS下Docker与.netcore(三)之 三剑客之一Docker-Compose CentOS下Docker与.netcore(四)之 三剑客之一D
https://blog.csdn.net/wanglei_storage/article/details/77508620 实践中会发现,生产环境中使用单个 Docker 节点是远远不够的,搭建 Docker 集群势在必行。然而,面对 Kubernetes, Mesos 以及 Swarm 等众多容
1.引言 紧接上篇.NET Core容器化@Docker,这一节我们先来介绍如何使用Nginx来完成.NET Core应用的反向代理,然后再介绍多容器应用的部署问题。 2. Why Need Nginx .NET Core中默认的Web Server为Kestrel。 Kestrel is grea
docker rm `docker ps -a | grep Exited | awk &#39;{print $1}&#39;` 删除异常停止的docker容器 docker rmi -f `docker images | grep &#39;&lt;none&gt;&#39; | awk &#3
什么是Docker Compose 在微服务盛行的今天,我们通常是这么定义Compose的:对容器的统一启动和关闭的编排工具。 但是我以前还是有个疑惑,谁会用Compose在一台服务器上部署多个服务呢?干脆直接用单体服务就行了!直到我遇到了以下的一个需求,让我明白了在一台服务器上不得不用多个服务的时
CentOS下Docker与.netcore(一) 之 安装 CentOS下Docker与.netcore(二) 之 Dockerfile CentOS下Docker与.netcore(三)之 三剑客之一Docker-Compose CentOS下Docker与.netcore(四)之 三剑客之一D
很多时候,我们在本地开发过程中程序运行很正常,但是发布到线上之后由于环境的原因,可能会有一些异常。通常我们会通过日志来分析问题,除了日志还有一种常用的调试手段就是:附加进程。 VS中的附加进程非常强大,目前提供了9种常用的附加方式。 在当前.Net Core支持跨平台的大背景下,其中Linux环境和
https://www.cnblogs.com/bigberg/p/8867326.html 一、简介 Docker有个编排工具docker-compose,可以将组成某个应该的多个docker容器编排在一起,同时管理。同样在Swarm集群中,可以使用docker stack 将一组相关联的服务进行
.Net6中想实现对某个网址截屏,可通过Selenium模拟访问网址并实现截图。 实现 安装Nuget包 &lt;PackageReference Include=&quot;Selenium.Chrome.WebDriver&quot; Version=&quot;85.0.0&quot; /&g
原文&#160;https://www.cnblogs.com/gispathfinder/p/5871043.html 我们在使用docker run创建Docker容器时,可以用--net选项指定容器的网络模式,Docker有以下4种网络模式: host模式,使用--net=host指定。 co