小言_互联网的博客

【保姆级教程-无需外网】年轻人的第一篇通过Kubeadm 部署 Kubernetes(K8S)全程无需外网的部署教程(含UI--Dashboard)

444人阅读  评论(0)

一、准备环境:

系统版本:CentOS Linux release 7.9.2009 (Core)

三台虚拟机详情:

主机名 CPU 内存 IP地址
k8s-master 2核 2G 192.168.31.31
k8s-node1 1核 2G 192.168.31.152
k8s-node2 1核 2G 192.168.31.84

二、三个节点都要配置的:

1.修改主机名:

#master节点:
hostnamectl set-hostname k8s-master
#node1节点:
hostnamectl set-hostname k8s-node1
#node2节点:
hostnamectl set-hostname k8s-node2

*此处使用的shell工具不同,若是没有显示修改后的主机名,可以尝试先断开shell连接重新连接。

2.同步三个节点的时间

Kubernetes要求集群中的节点时间必须精确一致

ntpdate time.windows.com

3.主机名解析

方便后面节点间的调用

cat >> /etc/hosts << EOF
192.168.31.31 k8s-master
192.168.31.152 k8s-node1
192.168.31.84 k8s-node2
EOF

4.关闭防火墙

为了方便安装测试,关闭三个节点的防火墙

systemctl stop firewalld 
systemctl disable firewalld

5.禁用selinux

测试环境,三个节点均关闭此安全服务,规避后面出现的问题

sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config 
setenforce 0

6.关闭swap分区

swap分区是为了在物理内存不够用的时候,把硬盘内存中的一部分空间释放出来,Kubernetes要求每个节点都禁用此分区

swapoff -a

7.将桥接的IPV4流量传递到iptables的链

iptables是Linux 内核集成的IP信息包过滤系统。为了避免流量丢失,做如下设置

cat  > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF

加载所有的配置文件

sysctl --system

8.安装Dokcer

分别为三个节点安装Docker

#配置docker yum源
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

#安装指定版本,这里安装18.06
yum install -y docker-ce-18.06.1.ce-3.el7

#开机启动并运行docker
systemctl start docker && systemctl enable docker

9.添加阿里云yum软件源

分别为三个节点配置一下阿里源

#配置kubernetes.repo的源,由于官方源国内无法访问,这里使用阿里云yum源
cat  > /etc/yum.repos.d/kubernetes.repo <<EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

10.安装kubeadm、kubelet、kubectl

#在所有节点上安装指定版本 kubelet、kubeadm 和 kubectl
yum install -y kubelet-1.15.0 kubeadm-1.15.0 kubectl-1.15.0

#启动kubelet服务
systemctl enable kubelet && systemctl start kubelet

三、部署 Master 节点

1.Master节点执行初始化

kubeadm init \
    --apiserver-advertise-address=192.168.31.31 \
    --image-repository registry.aliyuncs.com/google_containers \
    --kubernetes-version v1.15.0 \
    --service-cidr=10.1.0.0/16 \
    --pod-network-cidr=10.244.0.0/16

*看到如下警告,无需紧张,等一会就会继续运行了(2~3分钟):

[WARNING IsDockerSystemdCheck]: detected "cgroupfs" as the Docker cgroup driver. The recommended driver is "systemd". Please follow the guide at https://kubernetes.io/docs/setup/cri/
[WARNING Hostname]: hostname "k8s-master" could not be reached
[WARNING Hostname]: hostname "k8s-master": lookup k8s-master on 192.168.31.1:53: no such host

安装成功,会在最后提示如下内容

1)上面要求执行的操作:

有了上面的配置后,后续才能使用 kubectl 工具执行命令

mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config
2)记录下最后一行的内容!
kubeadm join 192.168.31.31:6443 --token h84sv6.fqkar8oxle7m4nki \
    --discovery-token-ca-cert-hash sha256:0375e7b19042f8519a8aced4cf4d8a8383f30f762f41b3da69d718c29c0cfd7f

2.安装pod网络插件(CNI)

安装Kubernetes网络插件,flannel:

1)将真实IP写入master的hosts文件

由于无法访问到外网,所以我们需要通过在 https://www.ipaddress.com/ 查询raw.githubusercontent.com的真实IP,并写入hosts文件

vim /etc/hosts
185.199.108.133 raw.githubusercontent.com
185.199.109.133 raw.githubusercontent.com
185.199.110.133 raw.githubusercontent.com
185.199.111.133 raw.githubusercontent.com

设置后,master节点的hosts文件

2)安装命令
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

安装成功:

3.查看master节点安装效果

[root@k8s-master ~]# kubectl get nodes
NAME         STATUS   ROLES    AGE    VERSION
k8s-master   Ready    master   115m   v1.15.0

至此,Kubernetes 的 Master 节点就部署完成了~

四、部署 Node 节点

1.将刚刚记录的命令,分别执行到node1 & node2

将node节点加入到集群

kubeadm join 192.168.31.31:6443 --token h84sv6.fqkar8oxle7m4nki \
    --discovery-token-ca-cert-hash sha256:0375e7b19042f8519a8aced4cf4d8a8383f30f762f41b3da69d718c29c0cfd7f

*如果上面没有记录kubeadm join那条命令,我们可以通过下面这条命令查看:

kubeadm token create --print-join-command

待到node1&node2均出现一下提示,说明节点已经成功加入集群了

2.通过 kubectl get nodes 查看节点的状态

通过master节点,查看集群中所有的节点

[root@k8s-master ~]# kubectl get nodes
NAME         STATUS   ROLES    AGE     VERSION
k8s-master   Ready    master   127m    v1.15.0
k8s-node1    Ready    <none>   4m53s   v1.15.0
k8s-node2    Ready    <none>   4m23s   v1.15.0

nodes状态全部为ready,由于每个节点都需要启动若干组件,如果node节点的状态是 NotReady,可以查看所有节点pod状态,确保所有pod成功拉取到镜像并处于running状态:

[root@k8s-master ~]# kubectl get pods -n kube-system
NAME                                 READY   STATUS    RESTARTS   AGE
coredns-bccdc95cf-46q58              1/1     Running   0          128m
coredns-bccdc95cf-m5xjn              1/1     Running   0          128m
etcd-k8s-master                      1/1     Running   0          127m
kube-apiserver-k8s-master            1/1     Running   0          127m
kube-controller-manager-k8s-master   1/1     Running   0          127m
kube-flannel-ds-9j4fg                1/1     Running   1          6m41s
kube-flannel-ds-gm5z9                1/1     Running   1          6m11s
kube-flannel-ds-zf2jk                1/1     Running   0          17m
kube-proxy-ff6tr                     1/1     Running   0          6m41s
kube-proxy-slnqn                     1/1     Running   0          128m
kube-proxy-thc5f                     1/1     Running   0          6m11s
kube-scheduler-k8s-master            1/1     Running   0          127m

至此,Kubernetes 的 Node 节点就部署完成了~

五、测试Kubernetes集群

1.在Kubernetes集群中创建一个pod,验证是否正常运行

#在master部署nginx
[root@k8s-master ~]# kubectl create deployment nginx --image=nginx:alpine
#通过NodePort的方式暴露端口号
[root@k8s-master ~]# kubectl expose deployment nginx --port=80 --type=NodePort

2.查看效果

[root@k8s-master ~]# kubectl get pod,svc
NAME                       READY   STATUS    RESTARTS   AGE
pod/nginx-8f6959bd-4q6gj   1/1     Running   0          61s

NAME                 TYPE        CLUSTER-IP    EXTERNAL-IP   PORT(S)        AGE
service/kubernetes   ClusterIP   10.1.0.1      <none>        443/TCP        132m
service/nginx        NodePort    10.1.152.39   <none>        80:32269/TCP   44s

3. 通过node1的ip地址访问nginx

    http://192.168.31.152:32269/

测试成功~

4. 扩容2个副本

[root@k8s-master ~]# kubectl scale deployment nginx --replicas=2

5. 查看一下扩容效果(2个nginx一起提供服务)

[root@k8s-master ~]# kubectl get pods
NAME                   READY   STATUS    RESTARTS   AGE
nginx-8f6959bd-4q6gj   1/1     Running   0          12m
nginx-8f6959bd-cl9tz   1/1     Running   0          8m40s

六、部署Dashboard(Kubernetes的UI界面)

1. 在node1和node2上分别拉取镜像

*此处为了排除网络影响,小名在DockerHub上事先为大家准备好了dashboard镜像,大家可以直接拉取使用

docker pull eamonyin/kubernetes-dashboard-amd64

2.创建kubernetes-dashboard服务和对应的pod

1)在master节点执行,获取yaml部署文件

wget https://raw.githubusercontent.com/kubernetes/dashboard/v1.10.1/src/deploy/recommended/kubernetes-dashboard.yaml

2)修改“/root/kubernetes-dashboard.yaml”中的image地址。如果node1和node2上已经拉取了镜像(可以跳过此步)

3)添加对外暴露接口规则

添加:

type: NodePort 
nodePort: 30001

*配置“type: NodePort ”:为了让集群外的机器可以通过浏览器访问。

*配置“nodePort: 30001”:集群外的机器通过 node节点IP + 暴露端口号 即可访问界面

如下:

3.安装dashboard

kubectl apply -f kubernetes-dashboard.yaml

4.验证dashboard是否启动成功

[root@k8s-master ~]# kubectl get pods -n kube-system
NAME                                   READY   STATUS    RESTARTS   AGE
coredns-bccdc95cf-46q58                1/1     Running   0          4h6m
coredns-bccdc95cf-m5xjn                1/1     Running   0          4h6m
etcd-k8s-master                        1/1     Running   0          4h5m
kube-apiserver-k8s-master              1/1     Running   0          4h5m
kube-controller-manager-k8s-master     1/1     Running   0          4h5m
kube-flannel-ds-9j4fg                  1/1     Running   2          124m
kube-flannel-ds-gm5z9                  1/1     Running   2          123m
kube-flannel-ds-zf2jk                  1/1     Running   0          135m
kube-proxy-ff6tr                       1/1     Running   1          124m
kube-proxy-slnqn                       1/1     Running   0          4h6m
kube-proxy-thc5f                       1/1     Running   1          123m
kube-scheduler-k8s-master              1/1     Running   1          4h5m
kubernetes-dashboard-979d4d685-ffjnc   1/1     Running   0          78s

5. 创建serviceAccount,用户名为dashboard-admin

kubectl create serviceaccount dashboard-admin -n kube-system

6.通过clusterrolebinding绑定到内置的cluster-admin角色上

*dashboard-admin 拥有k8s api-server所有权限

kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin

7.查看dashboard-admin用户的securet:

kubectl get secret -n kube-system
kubectl describe secret dashboard-admin-token-fdpgs  -n kube-system

七、登录UI查看效果

1)通过“火狐浏览器”登录https://192.168.31.152:30001

2)输入token


大功告成!


如果觉得小名的文章帮助到了您,请关注小名,支持一下小名😄,给小名的文章点赞👍、评论✍、收藏🤞谢谢大家啦~♥♥♥

转载:https://blog.csdn.net/Tianc666/article/details/115303897
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场