Kubernetes集群搭建超详细总结(CentOS版)

系统 Linux
学习Kubernetes的关键一步就是要学会搭建一套k8s集群。在今天的文章中作者将最近新总结的搭建技巧,无偿分享给大家!废话不多说,直接上干货!

[[402865]]

本文转载自微信公众号「无敌码农」,作者无敌码农。转载本文请联系无敌码农公众号。

学习Kubernetes的关键一步就是要学会搭建一套k8s集群。在今天的文章中作者将最近新总结的搭建技巧,无偿分享给大家!废话不多说,直接上干货!

01、系统环境准备

要安装部署Kubernetes集群,首先需要准备机器,最直接的办法可以到公有云(如阿里云等)申请几台虚拟机。而如果条件允许,拿几台本地物理服务器来组建集群自然是最好不过了。但是这些机器需要满足以下几个条件:

要求64位Linux操作系统,且内核版本要求3.10及以上,能满足安装Docker项目所需的要求;

机器之间要保持网络互通,这是未来容器之间网络互通的前提条件;

要有外网访问权限,因为部署的过程中需要拉取相应的镜像,要求能够访问到gcr.io、quay.io这两个docker registry,因为有小部分镜像需要从这里拉取;

单机可用资源建议2核CPU、8G内存或以上,如果小一点也可以但是能调度的Pod数量就比较有限了;

磁盘空间要求在30GB以上,主要用于存储Docker镜像及相关日志文件;

在本次实验中我们准备了两台虚拟机,其具体配置如下:

2核CPU、2GB内存,30GB的磁盘空间;

Unbantu 20.04 LTS的Sever版本,其Linux内核为5.4.0;

内网互通,外网访问权限不受控制;

02、Kubernetes集群部署工具Kubeadm介绍

作为典型的分布式系统,Kubernetes的部署一直是困扰初学者进入Kubernetes世界的一大障碍。在发布早期Kubernetes的部署主要依赖于社区维护的各种脚本,但这其中会涉及二进制编译、配置文件以及kube-apiserver授权配置文件等诸多运维工作。目前各大云服务厂商常用的Kubernetes部署方式是使用SaltStack、Ansible等运维工具自动化地执行这些繁琐的步骤,但即使这样,这个部署的过程对于初学者来说依然是非常繁琐的。

正是基于这样的痛点,在志愿者的推动下Kubernetes社区终于发起了kubeadm这一独立的一键部署工具,使用kubeadm我们可以通过几条简单的指令来快速地部署一个kubernetes集群。在接下来的内容中,就将具体演示如何使用kubeadm来部署一个简单结构的Kubernetes集群。

03、安装kubeadm及Docker环境

正是基于这样的痛点,在志愿者的推动下Kubernetes社区终于发起了kubeadm这一独立的一键部署工具,使用kubeadm我们可以通过几条简单的指令来快速地部署一个kubernetes集群。在接下来的内容中,就将具体演示如何使用kubeadm来部署一个简单结构的Kubernetes集群。

前面简单介绍了Kubernetes官方发布一键部署工具kubeadm,只需要添加kubeadm的源,然后直接用yum安装即可,具体操作如下:

1)、编辑操作系统安装源配置文件,添加kubernetes镜像源,命令如下:

  1. #添加Docker阿里镜像源 
  2.  
  3. [root@centos-linux ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo 
  4.  
  5. #安装Docker 
  6.  
  7. [root@centos-linux ~]# yum -y install docker-ce-18.09.9-3.el7 
  8.  
  9. #启动Docker并设置开机启动 
  10.  
  11. [root@centos-linux ~]# systemctl enable docker 
  12.  
  13. 添加Kubernetes yum镜像源,由于网络原因,也可以换成国内Ubantu镜像源,如阿里云镜像源地址: 
  14.  
  15. 添加阿里云Kubernetes yum镜像源 
  16.  
  17. # cat > /etc/yum.repos.d/kubernetes.repo << EOF 
  18.  
  19. [kubernetes] 
  20.  
  21. name=Kubernetes 
  22.  
  23. baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 
  24.  
  25. enabled=1 
  26.  
  27. gpgcheck=0 
  28.  
  29. repo_gpgcheck=0 
  30.  
  31. gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg 
  32.  
  33. EOF 

2)、完成上述步骤后就可以通过yum命令安装kubeadm了,如下:

  1. [root@centos-linux ~]# yum install -y kubelet-1.20.0 kubeadm-1.20.0 kubectl-1.20.0 
  2.  
  3. 当前版本是最新版本1.21,这里安装1.20。 
  4.  
  5. #查看安装的kubelet版本信息 
  6.  
  7. [root@centos-linux ~]# kubectl version 
  8.  
  9. Client Version: version.Info{Major:"1", Minor:"20", GitVersion:"v1.20.0", GitCommit:"af46c47ce925f4c4ad5cc8d1fca46c7b77d13b38", GitTreeState:"clean", BuildDate:"2020-12-08T17:59:43Z", GoVersion:"go1.15.5", Compiler:"gc", Platform:"linux/amd64"
  10.  
  11. The connection to the server localhost:8080 was refused - did you specify the right host or port? 
  12.  
  13. 在上述安装kubeadm的过程中,kubeadm和kubelet、kubectl、kubernetes-cni这几个kubernetes核心组件的二进制文件也都会被自动安装好。 

3)、Docker服务启动及限制修改

在具体运行kubernetes部署之前需要对Docker的配置信息进行一些调整。首先,编辑系统/etc/default/grub文件,在配置项GRUB_CMDLINE_LINUX中添加如下参数:

  1. GRUB_CMDLINE_LINUX=" cgroup_enable=memory swapaccount=1" 

完成编辑后保存执行如下命令,并重启服务器,命令如下:

  1. root@kubernetesnode01:/opt/kubernetes-config# reboot 

上述修改主要解决的是可能出现的“docker警告WARNING: No swap limit support”问题。其次,编辑创建/etc/docker/daemon.json文件,添加如下内容:

  1. # cat > /etc/docker/daemon.json <<EOF 
  2.  
  3.  
  4.  "registry-mirrors": ["https://6ze43vnb.mirror.aliyuncs.com"], 
  5.  
  6.  "exec-opts": ["native.cgroupdriver=systemd"], 
  7.  
  8.  "log-driver""json-file"
  9.  
  10.  "log-opts": { 
  11.  
  12.    "max-size""100m" 
  13.  
  14.  }, 
  15.  
  16.  "storage-driver""overlay2" 
  17.  
  18.  
  19. EOF 
  20.  
  21. 完成保存后执行重启Docker命令,如下: 
  22.  
  23. # systemctl restart docker 
  24.  
  25. 此时可以查看Docker的Cgroup信息,如下: 
  26.  
  27. # docker info | grep Cgroup 
  28.  
  29. Cgroup Driver: systemd 

上述修改主要解决的是“Docker cgroup driver. The recommended driver is "systemd"”的问题。需要强调的是以上修改只是作者在具体安装操作是遇到的具体问题的解决整理,如在实践过程中遇到其他问题还需要自行查阅相关资料!

最后,需要注意由于kubernetes禁用虚拟内存,所以要先关闭掉swap否则就会在kubeadm初始化kubernetes的时候报错,具体如下:

  1. # swapoff -a 

该命令只是临时禁用swap,如要保证系统重启后仍然生效则需要“vim /etc/fstab”文件,并注释掉swap那一行。

04、部署Kubernetes的Master节点

在Kubernetes中Master节点是集群的控制节点,它是由三个紧密协作的独立组件组合而成,分别是负责API服务的kube-apiserver、负责调度的kube-scheduler以及负责容器编排的kube-controller-manager,其中整个集群的持久化数据由kube-apiserver处理后保存在Etcd中。

要部署Master节点可以直接通过kubeadm进行一键部署,但这里我们希望能够部署一个相对完整的Kubernetes集群,可以通过配置文件来开启一些实验性的功能。具体在系统中新建/opt/kubernetes-config/目录,并创建一个给kubeadm用的YAML文件(kubeadm.yaml),具体内容如下:

  1. apiVersion: kubeadm.k8s.io/v1beta2 
  2.  
  3. kind: ClusterConfiguration 
  4.  
  5. controllerManager: 
  6.  
  7. extraArgs: 
  8.  
  9.     horizontal-pod-autoscaler-use-rest-clients: "true" 
  10.  
  11.     horizontal-pod-autoscaler-sync-period: "10s" 
  12.  
  13.     node-monitor-grace-period: "10s" 
  14.  
  15. apiServer: 
  16.  
  17.  extraArgs: 
  18.  
  19.     runtime-config: "api/all=true" 
  20.  
  21. kubernetesVersion: "v1.20.0" 

在上述yaml配置文件中“horizontal-pod-autoscaler-use-rest-clients: "true"”这个配置,表示将来部署的kuber-controller-manager能够使用自定义资源(Custom Metrics)进行自动水平扩展,感兴趣的读者可以自行查阅相关资料!而“v1.20.0”就是要kubeadm帮我们部署的Kubernetes版本号。

需要注意的是,如果执行过程中由于国内网络限制问题导致无法下载相应的Docker镜像,可以根据报错信息在国内网站(如阿里云)上找到相关镜像,然后再将这些镜像重新tag之后再进行安装。具体如下:

  1. #从阿里云Docker仓库拉取Kubernetes组件镜像 
  2.  
  3. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver-amd64:v1.20.0 
  4.  
  5. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager-amd64:v1.20.0 
  6.  
  7. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler-amd64:v1.20.0 
  8.  
  9. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:v1.20.0 
  10.  
  11. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2 
  12.  
  13. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.4.13-0 
  14.  
  15. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:1.7.0 

下载完成后再将这些Docker镜像重新tag下,具体命令如下:

  1. #重新tag镜像 
  2.  
  3. docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler-amd64:v1.20.0 k8s.gcr.io/kube-scheduler:v1.20.0 
  4.  
  5. docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager-amd64:v1.20.0 k8s.gcr.io/kube-controller-manager:v1.20.0 
  6.  
  7. docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver-amd64:v1.20.0 k8s.gcr.io/kube-apiserver:v1.20.0 
  8.  
  9. docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:v1.20.0 k8s.gcr.io/kube-proxy:v1.20.0 
  10.  
  11. docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2 k8s.gcr.io/pause:3.2 
  12.  
  13. docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.4.13-0 k8s.gcr.io/etcd:3.4.13-0 
  14.  
  15. docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:1.7.0 k8s.gcr.io/coredns:1.7.0 
  16.  
  17. 此时通过Docker命令就可以查看到这些Docker镜像信息了,命令如下: 
  18.  
  19. root@kubernetesnode01:/opt/kubernetes-config# docker images 
  20.  
  21. REPOSITORY                                                                          TAG                 IMAGE ID            CREATED             SIZE 
  22.  
  23. k8s.gcr.io/kube-proxy                                                               v1.18.1             4e68534e24f6        2 months ago        117MB 
  24.  
  25. registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64                v1.18.1             4e68534e24f6        2 months ago        117MB 
  26.  
  27. k8s.gcr.io/kube-controller-manager                                                  v1.18.1             d1ccdd18e6ed        2 months ago        162MB 
  28.  
  29. registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager-amd64   v1.18.1             d1ccdd18e6ed        2 months ago        162MB 
  30.  
  31. k8s.gcr.io/kube-apiserver                                                           v1.18.1             a595af0107f9        2 months ago        173MB 
  32.  
  33. registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver-amd64            v1.18.1             a595af0107f9        2 months ago        173MB 
  34.  
  35. k8s.gcr.io/kube-scheduler                                                           v1.18.1             6c9320041a7b        2 months ago        95.3MB 
  36.  
  37. registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler-amd64            v1.18.1             6c9320041a7b        2 months ago        95.3MB 
  38.  
  39. k8s.gcr.io/pause                                                                    3.2                 80d28bedfe5d        4 months ago        683kB 
  40.  
  41. registry.cn-hangzhou.aliyuncs.com/google_containers/pause                           3.2                 80d28bedfe5d        4 months ago        683kB 
  42.  
  43. k8s.gcr.io/coredns                                                                  1.6.7               67da37a9a360        4 months ago        43.8MB 
  44.  
  45. registry.cn-hangzhou.aliyuncs.com/google_containers/coredns                         1.6.7               67da37a9a360        4 months ago        43.8MB 
  46.  
  47. k8s.gcr.io/etcd                                                                     3.4.3-0             303ce5db0e90        8 months ago        288MB 
  48.  
  49. registry.cn-hangzhou.aliyuncs.com/google_containers/etcd-amd64      

解决镜像拉取问题后再次执行kubeadm部署命令就可以完成Kubernetes Master控制节点的部署了,具体命令及执行结果如下:

  1. root@kubernetesnode01:/opt/kubernetes-config# kubeadm init --config kubeadm.yaml --v=5 
  2.  
  3. ... 
  4.  
  5. Your Kubernetes control-plane has initialized successfully! 
  6.  
  7. To start using your cluster, you need to run the following as a regular user
  8.  
  9.  mkdir -p $HOME/.kube 
  10.  
  11.  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config 
  12.  
  13.  sudo chown $(id -u):$(id -g) $HOME/.kube/config 
  14.  
  15. Alternatively, if you are the root user, you can run: 
  16.  
  17.  export KUBECONFIG=/etc/kubernetes/admin.conf 
  18.  
  19. You should now deploy a pod network to the cluster. 
  20.  
  21. Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at
  22.  
  23.  https://kubernetes.io/docs/concepts/cluster-administration/addons/ 
  24.  
  25. Then you can join any number of worker nodes by running the following on each as root: 
  26.  
  27. kubeadm join 10.211.55.13:6443 --token yi9lua.icl2umh9yifn6z9k \ 
  28.  
  29.    --discovery-token-ca-cert-hash sha256:074460292aa167de2ae9785f912001776b936cec79af68cec597bd4a06d5998d 

从上面部署执行结果中可以看到,部署成功后kubeadm会生成如下指令:

  1. kubeadm join 10.211.55.13:6443 --token yi9lua.icl2umh9yifn6z9k \ 
  2.  
  3.    --discovery-token-ca-cert-hash sha256:074460292aa167de2ae9785f912001776b936cec79af68cec597bd4a06d5998d 

这个kubeadm join命令就是用来给该Master节点添加更多Worker(工作节点)的命令,后面具体部署Worker节点的时候将会使用到它。此外,kubeadm还会提示我们第一次使用Kubernetes集群所需要配置的命令:

  1. mkdir -p $HOME/.kube 
  2.  
  3. sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config 
  4.  
  5. sudo chown $(id -u):$(id -g) $HOME/.kube/config 

而需要这些配置命令的原因在于Kubernetes集群默认是需要加密方式访问的,所以这几条命令就是将刚才部署生成的Kubernetes集群的安全配置文件保存到当前用户的.kube目录,之后kubectl会默认使用该目录下的授权信息访问Kubernetes集群。如果不这么做的化,那么每次通过集群就都需要设置“export KUBECONFIG 环境变量”来告诉kubectl这个安全文件的位置。

执行完上述命令后,现在我们就可以使用kubectl get命令来查看当前Kubernetes集群节点的状态了,执行效果如下:

  1. #  kubectl get nodes 
  2.  
  3. NAME                  STATUS     ROLES                  AGE     VERSION 
  4.  
  5. centos-linux.shared   NotReady   control-plane,master   6m55s   v1.20.0 

在以上命令输出的结果中可以看到Master节点的状态为“NotReady”,为了查找具体原因可以通过“kuberctl describe”命令来查看下该节点(Node)对象的详细信息,命令如下:

  1. # kubectl describe node centos-linux.shared 

该命令可以非常详细地获取节点对象的状态、事件等详情,这种方式也是调试Kubernetes集群时最重要的排查手段。根据显示的如下信息:

  1. ... 
  2.  
  3. Conditions 
  4.  
  5. ... 
  6.  
  7. Ready False... KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized 
  8.  
  9. ... 

可以看到节点处于“NodeNotReady”的原因在于尚未部署任何网络插件,为了进一步验证这一点还可以通过kubectl检查这个节点上各个Kubernetes系统Pod的状态,命令及执行效果如下:

  1. # kubectl get pods -n kube-system 
  2.  
  3. NAME                                       READY   STATUS    RESTARTS   AGE 
  4.  
  5. coredns-66bff467f8-l4wt6                   0/1     Pending   0          64m 
  6.  
  7. coredns-66bff467f8-rcqx6                   0/1     Pending   0          64m 
  8.  
  9. etcd-kubernetesnode01                      1/1     Running   0          64m 
  10.  
  11. kube-apiserver-kubernetesnode01            1/1     Running   0          64m 
  12.  
  13. kube-controller-manager-kubernetesnode01   1/1     Running   0          64m 
  14.  
  15. kube-proxy-wjct7                           1/1     Running   0          64m 
  16.  
  17. kube-scheduler-kubernetesnode01            1/1     Running   0      

命令中“kube-system”表示的是Kubernetes项目预留的系统Pod空间(Namespace),需要注意它并不是Linux Namespace,而是Kuebernetes划分的不同工作空间单位。回到命令输出结果,可以看到coredns等依赖于网络的Pod都处于Pending(调度失败)的状态,这样说明了该Master节点的网络尚未部署就绪。

05、部署Kubernetes网络插件

前面部署Master节点中由于没有部署网络插件,所以节点状态显示“NodeNotReady”状态。接下来的内容我们就来具体部署下网络插件。在Kubernetes“一切皆容器”的设计理念指导下,网络插件也会以独立Pod的方式运行在系统中,所以部署起来也很简单只需要执行“kubectl apply”指令即可,例如以Weave网络插件为例:

  1. # kubectl apply -f https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n'
  2.  
  3. serviceaccount/weave-net created 
  4.  
  5. clusterrole.rbac.authorization.k8s.io/weave-net created 
  6.  
  7. clusterrolebinding.rbac.authorization.k8s.io/weave-net created 
  8.  
  9. role.rbac.authorization.k8s.io/weave-net created 
  10.  
  11. rolebinding.rbac.authorization.k8s.io/weave-net created 
  12.  
  13. daemonset.apps/weave-net created 

部署完成后通过“kubectl get”命令重新检查Pod的状态:

  1. # kubectl get pods -n kube-system 
  2.  
  3. NAME                                       READY   STATUS    RESTARTS   AGE 
  4.  
  5. coredns-66bff467f8-l4wt6                   1/1     Running   0          116m 
  6.  
  7. coredns-66bff467f8-rcqx6                   1/1     Running   0          116m 
  8.  
  9. etcd-kubernetesnode01                      1/1     Running   0          116m 
  10.  
  11. kube-apiserver-kubernetesnode01            1/1     Running   0          116m 
  12.  
  13. kube-controller-manager-kubernetesnode01   1/1     Running   0          116m 
  14.  
  15. kube-proxy-wjct7                           1/1     Running   0          116m 
  16.  
  17. kube-scheduler-kubernetesnode01            1/1     Running   0          116m 
  18.  
  19. weave-net-746qj                            2/2     Running   0          14m 

可以看到,此时所有的系统Pod都成功启动了,而刚才部署的Weave网络插件则在kube-system下面新建了一个名叫“weave-net-746qj”的Pod,而这个Pod就是容器网络插件在每个节点上的控制组件。

到这里,Kubernetes的Master节点就部署完成了,如果你只需要一个单节点的Kubernetes,那么现在就可以使用了。但是在默认情况下,Kubernetes的Master节点是不能运行用户Pod的,需要通过额外的操作进行调整,在本文的最后将会介绍到它。

06、部署Worker节点

为了构建一个完整的Kubernetes集群,这里还需要继续介绍如何部署Worker节点。实际上Kubernetes的Worker节点和Master节点几乎是相同的,它们都运行着一个kubelet组件,主要的区别在于“kubeadm init”的过程中,kubelet启动后,Master节点还会自动启动kube-apiserver、kube-scheduler及kube-controller-manager这三个系统Pod。

在具体部署之前与Master节点一样,也需要在所有Worker节点上执行前面“安装kubeadm及Decker环境”小节中的所有步骤。之后在Worker节点执行部署Master节点时生成的“kubeadm join”指令即可,具体如下:

root@kubenetesnode02:~# kubeadm join 10.211.55.6:6443 --token jfulwi.so2rj5lukgsej2o6 --discovery-token-ca-cert-hash 

  1. root@kubenetesnode02:~# kubeadm join 10.211.55.6:6443 --token jfulwi.so2rj5lukgsej2o6     --discovery-token-ca-cert-hash sha256:d895d512f0df6cb7f010204193a9b240e8a394606090608daee11b988fc7fea6 --v=5 
  2.  
  3.  
  4. ... 
  5.  
  6. This node has joined the cluster: 
  7.  
  8. * Certificate signing request was sent to apiserver and a response was received. 
  9.  
  10. * The Kubelet was informed of the new secure connection details. 
  11.  
  12.  
  13. Run 'kubectl get nodes' on the control-plane to see this node join the cluster. 

完成集群加入后为了便于在Worker节点执行kubectl相关命令,需要进行如下配置:

  1. #创建配置目录 
  2.  
  3. root@kubenetesnode02:~# mkdir -p $HOME/.kube 
  4.  
  5. #将Master节点中$/HOME/.kube/目录中的config文件拷贝至Worker节点对应目录 
  6.  
  7. root@kubenetesnode02:~# scp root@10.211.55.6:$HOME/.kube/config $HOME/.kube/ 
  8.  
  9. #权限配置 
  10.  
  11. root@kubenetesnode02:~# sudo chown $(id -u):$(id -g) $HOME/.kube/config 

之后可以在Worker或Master节点执行节点状态查看命令“kubectl get nodes”,具体如下:

  1. root@kubernetesnode02:~# kubectl get nodes 
  2.  
  3. NAME               STATUS     ROLES    AGE   VERSION 
  4.  
  5. kubenetesnode02    NotReady   <none>   33m   v1.18.4 
  6.  
  7. kubernetesnode01   Ready      master   29h   v1.18.4 

通过节点状态显示此时Work节点还处于NotReady状态,具体查看节点描述信息如下:

  1. root@kubernetesnode02:~# kubectl describe node kubenetesnode02 
  2.  
  3. ... 
  4.  
  5. Conditions: 
  6.  
  7. ... 
  8.  
  9. Ready False ... KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized 
  10.  
  11. ... 

根据描述信息,发现Worker节点NotReady的原因也在于网络插件没有部署,继续执行“部署Kubernetes网络插件”小节中的步骤即可。但是要注意部署网络插件时会同时部署kube-proxy,其中会涉及从k8s.gcr.io仓库获取镜像的动作,如果无法访问外网可能会导致网络部署异常,这里可以参考前面安装Master节点时的做法,通过国内镜像仓库下载后通过tag的方式进行标记,具体如下:

  1. #从阿里云拉取必要镜像 
  2.  
  3. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:v1.20.0 
  4.  
  5. docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2 
  6.  
  7. #将镜像重新打tag 
  8.  
  9. docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:v1.20.0 k8s.gcr.io/kube-proxy:v1.20.0 
  10.  
  11. docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2 k8s.gcr.io/pause:3.2 
  12.  
  13. 如若一切正常,则继续查看节点状态,命令如下: 
  14.  
  15. root@kubenetesnode02:~# kubectl get node 
  16.  
  17. NAME               STATUS   ROLES    AGE     VERSION 
  18.  
  19. kubenetesnode02    Ready    <none>   7h52m   v1.20.0 
  20.  
  21. kubernetesnode01   Ready    master   37h     v1.20.0 

可以看到此时Worker节点的状态已经变成“Ready”,不过细心的读者可能会发现Worker节点的ROLES并不像Master节点那样显示“master”而是显示了,这是因为新安装的Kubernetes环境Node节点有时候会丢失ROLES信息,遇到这种情况可以手工进行添加,具体命令如下:

  1. root@kubenetesnode02:~# kubectl label node kubenetesnode02 node-role.kubernetes.io/worker=worker 

再次运行节点状态命令就能看到正常的显示了,命令效果如下:

  1. root@kubenetesnode02:~# kubectl get node 
  2.  
  3. NAME               STATUS   ROLES    AGE   VERSION 
  4.  
  5. kubenetesnode02    Ready    worker   8h    v1.18.4 
  6.  
  7. kubernetesnode01   Ready    master   37h   v1.18.4 

到这里就部署完成了具有一个Master节点和一个Worker节点的Kubernetes集群了,作为实验环境它已经具备了基本的Kubernetes集群功能!

07、部署Dashboard可视化插件

在Kubernetes社区中,有一个很受欢迎的Dashboard项目,它可以给用户一个可视化的Web界面来查看当前集群中的各种信息。该插件也是以容器化方式进行部署,操作也非常简单,具体可在Master、Worker节点或其他能够安全访问Kubernetes集群的Node上进行部署,命令如下:

  1. root@kubenetesnode02:~# kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.3/aio/deploy/recommended.yaml 

部署完成后就可以查看Dashboard对应的Pod运行状态,执行效果如下:

  1. root@kubenetesnode02:~# kubectl get pods -n kubernetes-dashboard 
  2.  
  3. NAME                                         READY   STATUS    RESTARTS   AGE 
  4.  
  5. dashboard-metrics-scraper-6b4884c9d5-xfb8b   1/1     Running   0          12h 
  6.  
  7. kubernetes-dashboard-7f99b75bf4-9lxk8        1/1     Running   0          12h 

除此之外还可以查看Dashboard的服务(Service)信息,命令如下:

  1. root@kubenetesnode02:~# kubectl get svc -n kubernetes-dashboard 
  2.  
  3. NAME                        TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE 
  4.  
  5. dashboard-metrics-scraper   ClusterIP   10.97.69.158    <none>        8000/TCP   13h 
  6.  
  7. kubernetes-dashboard        ClusterIP   10.111.30.214   <none>     

需要注意的是,由于Dashboard是一个Web服务,从安全角度出发Dashboard默认只能通过Proxy的方式在本地访问。具体方式为在本地机器安装kubectl管理工具,并将Master节点$HOME/.kube/目录中的config文件拷贝至本地主机相同目录,之后运行“kubectl proxy”命令,如下:

  1. qiaodeMacBook-Pro-2:.kube qiaojiang$ kubectl proxy 
  2.  
  3. Starting to serve on 127.0.0.1:8001 

本地proxy代理启动后,访问Kubernetes Dashboard地址,具体如下:

  1. http://localhost:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/ 

如果访问正常,就会看到如下图所示界面:

如上图所示Dashboard访问需要进行身份认证,主要有Token及Kubeconfig两种方式,这里我们选择Token的方式,而Token的生成步骤如下:

1)、创建一个服务账号

首先在命名空间kubernetes-dashboard中创建名为admin-user的服务账户,具体步骤为在本地目录创建类似“dashboard-adminuser.yaml”文件,具体内容如下:

  1. apiVersion: v1 
  2.  
  3. kind: ServiceAccount 
  4.  
  5. metadata: 
  6.  
  7.  name: admin-user 
  8.  
  9.  namespace: kubernetes-dashboard 

编写文件后具体执行创建命令:

  1. qiaodeMacBook-Pro-2:.kube qiaojiang$ kubectl apply -f dashboard-adminuser.yaml 
  2.  
  3. Warning: kubectl apply should be used on resource created by either kubectl create --save-config or kubectl apply 
  4.  
  5. serviceaccount/admin-user configured 

2)、创建ClusterRoleBinding

在使用kubeadm工具配置完Kubernetes集群后,集群中已经存在ClusterRole集群管理,可以使用它为上一步创建的ServiceAccount创建ClusterRoleBinding。具体步骤为在本地目录创建类似“dashboard-clusterRoleBingding.yaml”的文件,具体内容如下:

  1. apiVersion: rbac.authorization.k8s.io/v1 
  2.  
  3. kind: ClusterRoleBinding 
  4.  
  5. metadata: 
  6.  
  7.  name: admin-user 
  8.  
  9. roleRef: 
  10.  
  11.  apiGroup: rbac.authorization.k8s.io 
  12.  
  13.  kind: ClusterRole 
  14.  
  15.  name: cluster-admin 
  16.  
  17. subjects: 
  18.  
  19. - kind: ServiceAccount 
  20.  
  21.  name: admin-user 
  22.  
  23.  namespace: kubernetes-dashboard 

执行创建命令:

  1. qiaodeMacBook-Pro-2:.kube qiaojiang$ kubectl apply -f dashboard-clusterRoleBingding.yaml 
  2.  
  3. clusterrolebinding.rbac.authorization.k8s.io/admin-user created 

3)、获取Bearer Token

接下来执行获取Bearer Token的命令,具体如下:

  1. qiaodeMacBook-Pro-2:.kube qiaojiang$ kubectl -n kubernetes-dashboard describe secret $(kubectl -n kubernetes-dashboard get secret | grep admin-user | awk '{print $1}'
  2.  
  3. Name:         admin-user-token-xxq2b 
  4.  
  5. Namespace:    kubernetes-dashboard 
  6.  
  7. Labels:       <none> 
  8.  
  9. Annotations:  kubernetes.io/service-account.name: admin-user 
  10.  
  11.              kubernetes.io/service-account.uid: 213dce75-4063-4555-842a-904cf4e88ed1 
  12.  
  13.  
  14. Type:  kubernetes.io/service-account-token 
  15.  
  16.  
  17. Data 
  18.  
  19. ==== 
  20.  
  21. ca.crt:     1025 bytes 
  22.  
  23. namespace:  20 bytes 
  24.  
  25. token:      eyJhbGciOiJSUzI1NiIsImtpZCI6IlplSHRwcXhNREs0SUJPcTZIYU1kT0pidlFuOFJa 

获取Token后回到前面的认证方式选择界面,将获取的Token信息填入就可以正式进入Dashboard的系统界面,看到Kubernetes集群的详细可视化信息了,如图所示:

到这里就完成了Kubernetes可视化插件的部署并通过本地Proxy的方式进行了登录。在实际的生产环境中如果觉得每次通过本地Proxy的方式进行访问不够方便,也可以使用Ingress方式配置集群外访问Dashboard,感兴趣的读者可以自行尝试下。也可以先通过通过暴露端口,设置dashboard的访问,例如:

  1. #查看svc名称 
  2.  
  3. # kubectl get sc -n kubernetes-dashboard 
  4.  
  5.  
  6. # kubectl edit services -n kubernetes-dashboard kubernetes-dashboard 

然后修改配置文件,如下:

  1. ports: 
  2.  
  3.  - nodePort: 30000 
  4.  
  5.    port: 443 
  6.  
  7.    protocol: TCP 
  8.  
  9.    targetPort: 8443 
  10.  
  11.  selector: 
  12.  
  13.    k8s-app: kubernetes-dashboard 
  14.  
  15.  sessionAffinity: None 
  16.  
  17.  type: NodePort 

之后就可以通过IP+nodePort端口访问了!例如:

  1. https://47.98.33.48:30000/ 

08、Master调整Taint/Toleration策略

在前面我们提到过,Kubernetes集群的Master节点默认情况下是不能运行用户Pod的。而之所以能够达到这样的效果,Kubernetes依靠的正是Taint/Toleration机制;而该机制的原理是一旦某个节点被加上“Taint”就表示该节点被“打上了污点”,那么所有的Pod就不能再在这个节点上运行。

而Master节点之所以不能运行用户Pod,就在于其运行成功后会为自身节点打上“Taint”从而达到禁止其他用户Pod运行在Master节点上的效果(不影响已经运行的Pod),具体可以通过命令查看Master节点上的相关信息,命令执行效果如下:

  1. root@kubenetesnode02:~# kubectl describe node kubernetesnode01 
  2.  
  3. Name:               kubernetesnode01 
  4.  
  5. Roles:              master 
  6.  
  7. ... 
  8.  
  9. Taints:             node-role.kubernetes.io/master:NoSchedule 
  10.  
  11. ... 

可以看到Master节点默认被加上了“node-role.kubernetes.io/master:NoSchedule”这样的“污点”,其中的值“NoSchedule”意味着这个Taint只会在调度新的Pod时产生作用,而不会影响在该节点上已经运行的Pod。如果在实验中只想要一个单节点的Kubernetes,那么可以在删除Master节点上的这个Taint,具体命令如下:

  1. root@kubernetesnode01:~# kubectl taint nodes --all node-role.kubernetes.io/master- 

上述命令通过在“nodes --all node-role.kubernetes.io/master”这个键后面加一个短横线“-”表示移除所有以该键为键的Taint。

到这一步,一个基本的Kubernetes集群就部署完成了,通过kubeadm这样的原生管理工具,Kubernetes的部署被大大简化了,其中像证书、授权及各个组件配置等最麻烦的操作,kubeadm都帮我们完成了。

09、Kubernetes集群重启命令

如果服务器断电,或者重启,可通过如下命令重启集群:

  1. #重启docker 
  2.  
  3. systemctl daemon-reload 
  4.  
  5. systemctl restart docker 
  6.  
  7.  
  8. #重启kubelet 
  9.  
  10. systemctl restart kubelet.service 

 以上就是在CentOS 7 系统环境下搭建一组Kubernetes学习集群的详细步骤,其它Linux发行版本的部署方法也类似,大家可以根据自己的需求选择!

 

责任编辑:武晓燕 来源: 无敌码农
相关推荐

2019-07-04 13:10:53

Docker设计云计算

2020-02-27 14:58:03

LinuxBash编程命令

2020-11-03 14:50:18

CentOSMySQL 8.0数去库

2010-03-26 15:14:49

CentOS发行版

2014-10-09 10:04:23

CentOS集群

2012-11-01 17:15:04

2020-06-19 09:55:00

Redis数据库字符串

2021-06-17 06:29:16

kube-vip Kubernetes开源项目

2019-08-05 09:19:45

PG事务隔离级别数据库

2023-12-08 07:59:04

2017-02-27 21:55:04

LinuxCentOS 7.0Redis

2020-07-22 16:40:23

增删改查Java代码

2019-08-02 09:13:22

Linux脚本语言欢聚时代

2021-05-12 10:59:39

Kubernetes容器集群

2019-01-15 09:34:30

MySQL高性能优化

2019-11-05 14:20:02

Oracle分组函数数据库

2019-10-22 07:50:45

SqlServer数据库触发器

2021-03-05 09:38:53

项目数据库系统

2019-06-18 10:31:23

数据库端口URL

2019-08-06 09:11:49

数据库数据结构操作系统
点赞
收藏

51CTO技术栈公众号