小言_互联网的博客

云原生扫盲

506人阅读  评论(0)

【强制】云原生。

在云计算环境中构建、部署和管理现代应用程序的软件方法。

【参考】尚硅谷云原生课程。

课程链接:https://www.bilibili.com/video/BV13Q4y1C7hS/

课程简介:从零开始,以实战的方式,把云原生的整套周边快速地玩儿起来。

前置要求:了解Linux、Nginx、MySQL、Redis等。 

1 云服务器

【推荐】公有云和私有云。

1) 公有云。

    公有云资源(例如服务器和存储空间)由第三方云服务提供商拥有和运营,这些资源通过Internet提供。

    国内的云服务提供商有:阿里云、腾讯云等。

    公有云的优势:成本低、高可靠性、无需维护、近乎无限制的缩放性。

2) 私有云。

    私有云由专供一个企业或组织使用的云计算资源构成。在私有云中,服务和基础结构始终在私有网络上进行维护,软件和硬件专供组织使用。这样,私有云可以使组织更加方便地自定义资源,从而满足特定的IT需求。

《浪潮之巅》中鄙视了将云分为公有云和私有云的行为:

“云计算的初衷是整合社会的计算资源,达到节省资源的效果。为了达到这个效果,每个云计算提供商要有相当的规模。现在很多外行,以及涉及自身利益揣着明白装糊涂的内行,以所谓私有云的名义,将本该合并的服务硬是划成了豆腐块。在美国科技界,大家的共识是云计算基础设施的提供商数量只能是个位数的。而在中国,这个道理讲不通,因为所有零敲碎打的公司和政府部门都以‘你讲的那是公有云,我们也需要私有云’为借口划分地盘。岂不知,即使Google这家计算能力全球最大的公司,也不过是一块私有云而已,因为私有云并不意味着规模小。……在中国有些人也很清楚云计算不是谁都能搞的,但这是提升GDP和业绩的最好名头,一定要用一下。于是,云计算的泡沫就越吹越大了。”

笔者支持书中的观点。

【参考】购买云服务器(阿里云)。

1) 注册并登录阿里云。

    https://www.aliyun.com/

2) 选择云服务器ECS服务,创建实例。

    基础配置:按量付费、1G内存、CentOS镜像。

    网络和安全组:分配公网IPv4地址。

    系统配置:设置登录密码和服务器名称。

    创建完成。

3) 使用Electerm、XShell等工具,通过公网IP连接云服务器。

4) 测试安装Nginx。


  
  1. yum install nginx
  2. systemctl start nginx

    复制公网IP,打开浏览器访问 公网IP(Nginx默认监听80端口),即可访问Nginx。

【强制】安全组。

通过设置安全组规则,我们可以限制外部访问云服务器的端口范围。

【推荐】专有网络(VPC)。

1) 划分网段。

    192.168.0.0/16

2) 创建交换机。

    switch1:192.168.0.0/24

    switch2:192.168.1.0/24

3) 创建云服务器实例时,可以选择专有网络和交换机。

2 Docker

2.1 Docker简介

【强制】虚拟化和容器化。

1) 虚拟化。

    虚拟技术是一种通过组合或分区现有的计算机资源(CPU、内存、磁盘空间等),使得这些资源表现为一个或多个操作环境,从而提供优于原有资源配置的访问方式的技术。虚拟化就是把物理资源转变为逻辑上可以管理的资源,以打破物理结构之间的壁垒。

    虚拟化的优点:隔离性强。

2) 容器化。

    容器化是指将软件代码和所需的所有组件(例如库、框架和其他依赖项)打包在一起,让它们隔离在自己的“容器”中。这样,容器内的软件或应用就可以在任何环境和任何基础架构上一致地移动和运行,不受该环境或基础架构的操作系统影响。

    Linux实现了容器化,Docker对此功能进行了封装。

    容器化的优点:隔离性强、秒级启动、可移植性好。

【推荐】Docker架构图。

Client:客户端。

DOCKER_HOST:安装Docker的主机。

Registry:仓库,Docker Hub。

Docker daemon:Docker后台进程。

Images:镜像,只读的文件系统,可以简单地理解为应用程序。

Containers:容器,隔离应用和周围的环境。

2.2 Docker安装与使用

【参考】Docker安装。

1) 使用青云创建云服务器。

    https://www.qingcloud.com/

2) 安装Docker。


  
  1. ​yum remove docker*
  2. yum install -y yum-utils
  3. yum-config-manager --add-repo \
  4. http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
  5. yum install -y docker-ce-20.10.7 docker-ce-cli-20.10.7 containerd.io-1.4.6
  6. systemctl enable docker --now
  7. # 配置容器镜像加速器
  8. # 加速器地址可在 阿里云-容器镜像服务-镜像加速器 页面获取
  9. sudo mkdir -p /etc/docker
  10. sudo tee /etc/docker/daemon.json <<- 'EOF'
  11. {
  12. "registry-mirrors": [ "https://82m9ar63.mirror.aliyuncs.com"],
  13. "exec-opts": [ "native.cgroupdriver=systemd"],
  14. "log-driver": "json-file",
  15. "log-opts": {
  16. "max-size": "100m"
  17. },
  18. "storage-driver": "overlay2"
  19. }
  20. EOF
  21. sudo systemctl daemon-reload
  22. sudo systemctl restart docker

【推荐】镜像相关操作。


  
  1. # 下载Nginx镜像
  2. # docker pull 镜像名:版本号
  3. # 如果不加版本号,默认下载最新版
  4. docker pull nginx
  5. # 查看本地镜像
  6. docker images
  7. # 移除镜像
  8. # 镜像ID可以通过docker images命令查看
  9. # docker rmi 镜像名:版本号/镜像ID
  10. # 创建容器,将镜像作为应用程序在容器内运行
  11. # -d:后台运行
  12. docker run --name=mynginx -d nginx
  13. # 执行镜像(进入镜像文件系统)
  14. # 容器ID可以通过docker ps命令查看
  15. docker exec -it 容器ID /bin/bash
  16. # 退出
  17. # 容器内 exit
  18. # 本地提交(镜像是只读的,实际上是创建了新的镜像)
  19. docker commit 容器ID testnginx:v1.0
  20. # 下次启动时运行新镜像
  21. # docker run -d -p 88:80 testnginx:v1.0
  22. # 本地镜像打标
  23. docker tag testnginx:v1.0 lalixiaozhu/testnginx:v1.0
  24. # 将本地镜像推送到docker.hub
  25. docker push lalixiaozhu/testnginx:v1.0
  26. # 推送前必须登录docker.hub账号
  27. # docker login,输入用户名和密码
  28. # 镜像推送到docker.hub后,在其他机器上可直接下载
  29. # docker pull lalixiaozhu/testnginx:v1.0
  30. # 保存镜像到本地 -o output
  31. docker save -o testnginx.tar testnginx:v1.0
  32. # 复制镜像
  33. scp testnginx.tar root@192.168.xx.xx:/root/
  34. # 在root@192.168.xx.xx:/root/路径下加载镜像 -i input
  35. docker load -i testnginx.tar

【推荐】容器相关操作。


  
  1. # 创建容器,将镜像作为应用程序在容器内运行
  2. # -d:后台运行
  3. docker run --name=mynginx -d nginx
  4. # 查看正在运行应用程序的容器
  5. docker ps
  6. # -a:查看所有
  7. docker ps -a
  8. # 移除已停止运行应用程序的容器
  9. docker rm mynginx
  10. # -f 强制移除
  11. docker rm -f mynginx
  12. # 停止运行应用程序
  13. # docker stop 容器名称/容器ID
  14. # 重启应用程序
  15. # docker start 容器名称/容器ID
  16. # 设置应用程序开机自启
  17. # docker update 容器名称/容器ID --restart=always
  18. # 挂载(运行时用主机上的文件代替镜像中的文件)
  19. # -restart=always 设置应用程序开机自启
  20. # -p 80:80:端口映射,从主机的80端口映射到Docker的80端口
  21. # -v 挂载
  22. docker run -d --name=mynginx02 --restart=always -p 80:80 \
  23. -v /data/nginx/html:/usr/share/nginx/html \
  24. -v /data/nginx/conf/nginx.conf:/etc/nginx/nginx.conf \
  25. nginx
  26. # 主机上用来挂载的文件不能为空
  27. # echo hello > /data/nginx/html/index.html
  28. # docker cp 容器ID:/etc/nginx/nginx.conf /data/nginx/conf/nginx.conf
  29. # 查看容器日志
  30. # docker logs 容器ID

【推荐】打包Spring Boot应用。

1) 准备一个Spring Boot应用。

    如果没有可用的Spring Boot应用,可进入https://start.spring.io/,选择Maven工程,添加Spring Web、Spring Data Redis依赖。生成,导入IDEA。

    写一个简单的功能。


  
  1. @RestController
  2. public class HelloWorldController {
  3. @GetMapping("/hello")
  4. public String hello () {
  5. return "Hello World";
  6. }
  7. }

    启动Spring Boot应用。

    访问localhost:8080/hello,成功展示“Hello World”。

2) 使用Spring Boot打包应用。

    得到一个jar:MyApp-0.0.1-SNAPSHOT.jar。

3) 将jar:MyApp-0.0.1-SNAPSHOT.jar上传到服务器。

4) 在服务器上,在jar:MyApp-0.0.1-SNAPSHOT.jar所在目录下创建Dockerfile。


  
  1. FROM openjdk:8-jdk-slim
  2. LABEL maintainer=lalixiaozhu
  3. COPY target/*.jar /app.jar
  4. ENTRYPOINT [ "java", "-jar", "/app.jar"]

5) 执行docker build命令


  
  1. # 注意命令末尾有个点,代表当前目录
  2. # Dockerfile是默认名称,可以不写"-f Dockerfile"
  3. docker build -t myapp:v1.0 -f Dockerfile .

    执行完docker build以后,使用docker images命令可以看到镜像myapp:v1.0。

    接下来只需要运行该镜像,就可以通过公网IP访问了。

docker run -d --name myapp -p 8080:8080 myapp:v1.0

    当然也可以推到docker.hub,供其他服务器下载。

3 Kubernetes

3.1 Kubernetes简介

【强制】Kubernetes。

Kubernetes,又称K8s,一个开源容器编排平台,可以自动完成在部署、管理和扩展容器化应用过程中涉及的许多手动操作。

Kubernetes的特性:

1) 服务发现和负载均衡。

2) 存储编排。

3) 自动部署和回滚。

4) 自动完成装箱计算。

    Kubernetes允许你指定每个容器所需CPU和内存(RAM)。

5) 自我修复。

    Kubernetes重新启动失败的容器、替换容器、杀死不响应用户定义的运行状况检查的容器,并且在准备好服务之前不将其通告给客户端。

6) 密钥与配置管理。

【推荐】Kubernetes架构。

Kubernetes Cluster = N Master Node + N Worker Node:N主节点+N工作节点;N>=1。

1) kube-apiserver。

    kube-apiserver公开了Kubernetes API,是Kubernetes控制面板(Control Plane)的前端。采用外观模式。

2) etcd。

    etcd是兼具一致性和高可用性的键值数据库,可以作为保存Kubernetes所有集群数据的后台数据库。

3) kube-scheduler。

    kube-scheduler负责监视新创建的、未指定运行节点(node)的Pods,选择节点让Pod在上面运行。

4) kube-controller-manager。

    kube-controller-manager是主节点上运行控制器的组件。这些控制器包括:

        节点控制器(Node Controller):负责在节点出现故障时进行通知和响应。

        任务控制器(Job controller):监测代表一次性任务的Job对象,然后创建Pods来运行这些任务直至完成。

        端点控制器(Endpoints Controller):填充端点(Endpoints)对象(即加入Service与Pod)。

        服务帐户和令牌控制器(Service Account & Token Controllers):为新的命名空间创建默认帐户和API访问令牌。

5) cloud-controller-manager。

    cloud-controller-manager是嵌入特定云的控制逻辑的控制平面组件。云控制器管理器允许您链接集群到云提供商的应用编程接口中,并把和该云平台交互的组件与只和您的集群交互的组件分离开。

6) kubelet。

    一个在集群中每个节点(node)上运行的代理。它保证容器(containers)都运行在Pod中。

7) kube-proxy。

    kube-proxy是集群中每个节点上运行的网络代理,实现Kubernetes服务(Service)概念的一部分。

3.2 Kubernetes集群搭建

【参考】Kubernetes集群搭建。

1) 创建专有网络,在专有网络中创建3台云服务器。

    专有网络不要选192.168.0.0/16,可能会和pod-network-cidr冲突。

    安全组要开启内网互信。(默认是开启的)

2) 给每台服务器安装Docker。

3) 给每台服务器进行环境配置。


  
  1. # (云服务器的默认名称无意义)给每台服务器设置域名
  2. # 示例:k8s-master、node1、node2
  3. hostnamectl set-hostname xxxx
  4. # 将SELinux设置为permissive模式(相当于禁用)
  5. sudo setenforce 0
  6. sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
  7. # 关闭swap
  8. swapoff -a
  9. sed -ri 's/.*swap.*/#&/' /etc/fstab
  10. # 允许iptables检查桥接流量
  11. cat << EOF | sudo tee /etc/modules-load.d/k8s.conf
  12. br_netfilter
  13. EOF
  14. cat << EOF | sudo tee /etc/sysctl.d/k8s.conf
  15. net.bridge.bridge-nf-call-ip6tables = 1
  16. net.bridge.bridge-nf-call-iptables = 1
  17. EOF
  18. # 使以上配置生效
  19. sudo sysctl --system

4) 给每台服务器安装kubelet、kubeadm、kubectl。


  
  1. # 配置k8s的yum源地址
  2. cat << EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
  3. [kubernetes]
  4. name=Kubernetes
  5. baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
  6. enabled=1
  7. gpgcheck=0
  8. repo_gpgcheck=0
  9. gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
  10. http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
  11. exclude=kubelet kubeadm kubectl
  12. EOF
  13. # 安装kubelet、kubeadm、kubectl
  14. sudo yum install -y \
  15. kubelet-1.20.9 kubeadm-1.20.9 kubectl-1.20.9 --disableexcludes=kubernetes
  16. # 开机启动kubelet
  17. sudo systemctl enable --now kubelet
  18. # 给每台机器配置master域名
  19. echo "172.31.0.4 k8s-master" >> /etc/hosts

5) 初始化master节点。


  
  1. # 对master进行初始化
  2. # apiserver-advertise-address=master的IP地址
  3. # control-plane-endpoint=master域名
  4. # service-cidr=10.96.0.0/16 不用改
  5. # pod-network-cidr=192.168.0.0/16 不用改
  6. kubeadm init \
  7. --apiserver-advertise-address=172.31.0.4 \
  8. --control-plane-endpoint=k8s-master \
  9. --image-repository registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images \
  10. --kubernetes-version v1.20.9 \
  11. --service-cidr=10.96.0.0/16 \
  12. --pod-network-cidr=192.168.0.0/16

初始化成功后,将下面的信息记录下来备用。


  
  1. Your Kubernetes control-plane has initialized successfully!
  2. To start using your cluster, you need to run the following as a regular user:
  3. mkdir -p $HOME/.kube
  4. sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  5. sudo chown $( id -u):$( id -g) $HOME/.kube/config
  6. Alternatively, if you are the root user, you can run:
  7. export KUBECONFIG=/etc/kubernetes/admin.conf
  8. You should now deploy a pod network to the cluster.
  9. Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  10. https://kubernetes.io/docs/concepts/cluster-administration/addons/
  11. You can now join any number of control-plane nodes by copying certificate authorities
  12. and service account keys on each node and then running the following as root:
  13. kubeadm join k8s-master:6443 --token 3vckmv.lvrl05xpyftbs177 \
  14. --discovery-token-ca-cert-hash sha256:1dc274fed24778f5c284229d9fcba44a5df11efba018f9664cf5e8ff77907240 \
  15. --control-plane
  16. Then you can join any number of worker nodes by running the following on each as root:
  17. kubeadm join k8s-master:6443 --token 3vckmv.lvrl05xpyftbs177 \
  18. --discovery-token-ca-cert-hash sha256:1dc274fed24778f5c284229d9fcba44a5df11efba018f9664cf5e8ff77907240

7) 将所有worker节点加入集群。


  
  1. # 从主节点初始化成功信息中复制,token 24小时内有效
  2. kubeadm join k8s-master:6443 --token 3vckmv.lvrl05xpyftbs177 \
  3. --discovery-token-ca-cert-hash sha256:1dc274fed24778f5c284229d9fcba44a5df11efba018f9664cf5e8ff77907240
  4. # 若token已过期,使用下面的命令
  5. kubeadm token create --print-join-command

8) 给每台服务器安装kube-apiserver、kube-proxy、kube-controller-manager、kube-scheduler、etcd、coredns、pause。(用或不用都可以装上)


  
  1. sudo tee ./images.sh <<- 'EOF'
  2. #!/bin/bash
  3. images=(
  4. kube-apiserver:v1.20.9
  5. kube-proxy:v1.20.9
  6. kube-controller-manager:v1.20.9
  7. kube-scheduler:v1.20.9
  8. coredns:1.7.0
  9. etcd:3.4.13-0
  10. pause:3.2
  11. )
  12. for imageName in ${images[@]} ; do
  13. docker pull registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/ $imageName
  14. done
  15. EOF
  16. chmod +x ./images.sh && ./images.sh

【推荐】kubectl常用命令。(仅master节点可用)


  
  1. # 查看集群的所有节点
  2. kubectl get nodes
  3. # 应用配置文件
  4. # 在Kubernetes中,应用配置文件是个十分常用的功能
  5. # 因考虑到篇幅,本文省略了这部分内容
  6. kubectl apply -f xxxx.yaml

【参考】Dashboard。

Dashboard是Kubernetes官方提供的可视化工具。

3.3 Kubernetes核心概念

【强制】Namespace。

命名空间。Namespace用来对资源进行隔离划分。

【推荐】Namespace相关命令。


  
  1. # 创建Namespace
  2. kubectl create ns hello
  3. # 删除Namespace
  4. kubectl delete ns hello

【强制】Pod。

Pod是运行中的一组容器,是Kubernetes中应用的最小单位。

Kubernetes对Docker container进行封装,成为Pod。

Kubernetes给每个Pod都分配了一个IP地址。

【推荐】Pod相关命令。


  
  1. # 运行Pod
  2. # 补充:推荐使用Deployment来运行Pod
  3. kubectl run mynginx --image=nginx
  4. # 查看default Namespace中的Pod
  5. # -n 指定Namespace
  6. # -owide 查看更多信息(包括Pod的IP地址)
  7. kubectl get pod
  8. # 查看Pod详情
  9. kubectl describe pod mynginx
  10. # 删除Pod
  11. kubectl delete pod mynginx
  12. # 查看Pod日志
  13. kubectl logs mynginx

【强制】Deployment及其类似概念。

1) Deployment:无状态应用部署,比如微服务,提供多副本等功能。

    Deployment可以控制Pod,使Pod拥有自愈、多副本、扩/锁容等能力。

2) Stateful Set:有状态应用部署,比如Redis,提供稳定的存储、网络等功能。

3) Daemon Set:守护型应用部署,比如日志收集组件,运行在每一台机器上。

4) Job/Cron Job:定时任务部署,比如垃圾清理组件,可以在指定时间运行。

【推荐】Deployment相关命令。


  
  1. # 创建Deployment
  2. # mytomcat宕机时,自动重新创建mytomcat,即自愈
  3. kubectl create deployment mytomcat --image=tomcat:8.5.68
  4. # 删除Deployment
  5. kubectl delete deploy mytomcat
  6. # 创建Deployment,并创建3份my-dep(3个Pod),即多副本
  7. kubectl create deployment my-dep --image=nginx --replicas=3
  8. # 将my-dep的规模扩大到5份,即扩容
  9. kubectl scale --replicas=5 deployment/my-dep
  10. # 滚动更新
  11. kubectl set image deployment/my-dep nginx=nginx:1.16.1 --record
  12. # 查看回滚状态
  13. kubectl rollout status deployment/my-dep
  14. # 查看历史版本
  15. kubectl rollout history deployment/my-dep
  16. # 查看某个历史版本的详情
  17. kubectl rollout history deployment/my-dep --revision=2
  18. # 回滚(到上个版本)
  19. kubectl rollout undo deployment/my-dep
  20. # 回滚到指定版本
  21. kubectl rollout undo deployment/my-dep --to-revision=2

【强制】Service。

服务。Service是对 一组暴露的Pods组成的网络服务 的抽象。

Kubernetes给每个Service都分配了一个IP地址。

【推荐】Service相关命令。


  
  1. # 暴露deployment
  2. # --type=ClusterIP 集群内部可访问,默认
  3. kubectl expose deployment my-dep \
  4. --port=8000 --target-port=80 -- type=ClusterIP
  5. # --type=NodePort 集群外也可以访问
  6. kubectl expose deployment my-dep \
  7. --port=8000 --target-port=80 -- type=NodePort
  8. # 查看service
  9. kubectl get service
  10. # 使用service IP:port可以负载均衡地访问my-dep
  11. curl 10.96.xx.xx:8000
  12. # 使用域名访问(deployment名.namespace名.svc)
  13. curl my-dep.default.svc:8000

【强制】Ingress。

入口。Ingress是Service的统一网关入口。

Kubernetes希望Ingress能够成为集群流量的唯一入口。

3.4 Kubernetes存储抽象

【推荐】NFS-Server。

网络文件系统服务。

【参考】搭建NFS-Server。

1) 在每台服务器安装nfs-utils。

2) 在master节点创建集群文件存储目录/nfs/data/。


  
  1. # 对外暴露目录
  2. echo "/nfs/data/ *(insecure,rw,sync,no_root_squash)" > /etc/exports
  3. # 创建共享目录
  4. mkdir -p /nfs/data
  5. # 开机启动rpcbind
  6. systemctl enable rpcbind --now
  7. # 开机启动nfs-server
  8. systemctl enable nfs-server --now
  9. # 使配置生效
  10. exportfs -r
  11. # 检查配置是否生效
  12. exportfs

3) worker节点同步master节点。


  
  1. # 显示master节点可挂载的目录
  2. showmount -e 172.31.0.4
  3. # 创建目录
  4. mkdir -p /nfs/data
  5. # 挂载目录
  6. mount -t nfs 172.31.0.4:/nfs/data /nfs/data

4) 配置默认存储。

    创建配置文件sc.yaml。

vi sc.yaml

    将Kubernetes附录中的sc.yaml粘贴进去,记得修改其中的IP地址。

    应用该配置文件。


  
  1. kubectl apply -f sc.yaml
  2. # 确认配置是否生效
  3. kubectl get sc

【推荐】PV&PVC。

1) 直接使用NFC挂载的方式存在一些问题。

    每个Pod能使用的存储空间没有限制。

    如果Pod被下线,挂载目录下的数据不会被清理。

2) PV&PVC是上述问题的一种解决方案。

    PV:持久卷(Persistent Volume),将应用需要持久化的数据保存到指定的位置。

    PVC:持久卷申明(Persistent Volume Claim),申明需要使用的持久卷规格。

    提前创建静态的PV池,由每个Pod提供PVC,申明需要使用的持久卷规格,在PV池中寻找合适的PV,与PVC进行绑定。如果Pod被下线,PVC跟着被删除,绑定着的PV将被回收。

【推荐】ConfigMap。

挂载目录可以使用PV&PVC,挂载配置文件推荐使用ConfigMap。


  
  1. # 创建Redis ConfigMap
  2. kubectl create cm redis-conf --from-file=redis.conf
  3. # 查看Config Map
  4. kubectl get cm redis-conf -oyaml

【参考】Secret。

Secret对象类型用来保存敏感信息,例如密码、OAuth令牌和SSH密钥。将这些信息放在Secret中比放在Pod的定义或者容器镜像中来说更加安全和灵活。


  
  1. # 创建secret
  2. kubectl create secret docker-registry <Select名称> \
  3. --docker-server=<你的镜像仓库服务器> \
  4. --docker-username=<你的用户名> \
  5. --docker-password=<你的密码> \
  6. --docker-email=<你的邮箱地址>
  7. # 查看secret
  8. kubectl get secret <Select名称>

4 KubeSphere

【强制】KubeSphere。

KubeSphere是一个全栈的Kubernetes容器云PaaS解决方案。

KubeSphere是基于Kubernetes构建的分布式、多租户、多集群、企业级开源容器平台,具有强大且完善的网络与存储能力,并通过极简的人机交互提供完善的多集群管理、CI/CD、微服务治理、应用管理等功能,帮助企业在云、虚拟化及物理机等异构基础设施上快速构建、部署及运维容器架构,实现应用的敏捷开发与全生命周期管理。

4.1 KubeSphere安装

【参考】KubeSphere安装。

1) 准备云服务器。

    master:1台,CentOS 7.9,4核8G,分配公网IPv4地址。

    worker:2台,CentOS 7.9,8核16G,分配公网IPv4地址。

    按量付费。

2) 安装Docker。

3) 安装k8s。

4) 搭建NFS-Server。

5) 搭建Metrics-Server。

    创建配置文件metrics.yaml。

vi metrics.yaml

    将KubeSphere附录中的metrics.yaml粘贴进去。

    应用该配置文件。

kubectl apply -f metrics.yaml

6) 安装KubeSphere。

    应用KubeSphere附录中的kubesphere-installer.yaml和cluster-configuration.yaml。


  
  1. # 查看安装日志
  2. kubectl logs -n kubesphere-system $(kubectl get pod -n kubesphere-system -l app=ks-install -o jsonpath= '{.items[0].metadata.name}') -f
  3. # 解决etcd监控证书找不到的问题
  4. kubectl -n kubesphere-monitoring-system create secret generic kube-etcd-client-certs --from-file=etcd-client-ca.crt=/etc/kubernetes/pki/etcd/ca.crt --from-file=etcd-client.crt=/etc/kubernetes/pki/apiserver-etcd-client.crt --from-file=etcd-client.key=/etc/kubernetes/pki/apiserver-etcd-client.key

7) 安全组放行30000-32767端口。

8) 访问任意服务器的30880接口。

    默认账号 : admin

    默认密码 : P@88w0rd

4.2 KubeSphere实战

多租户系统

【参考】多租户系统。

用于权限隔离。集群-企业空间-项目。

1) 使用admin账号登录。

    创建一个user-manager。user-manager可以创建其他用户。

2) 使用user-manager账号登录。

    创建一个workspaces-manager。workspaces-manager可以创建工作空间。

    创建N个platform-regular。

3) 使用workspaces-manager账号登录。

    创建一个企业空间。点击进入。

    邀请其他用户成为企业admin。

4) 使用企业admin账号登录。

    邀请其他用户成为企业self-provisioner或企业regular。

5) 使用企业self-provisioner账号登录。

    创建项目。后面的部署行为都发生在项目中。

    邀请其他用户成为项目成员。

KubeSphere部署中间件

【强制】应用部署的三要素。

1) 应用的部署方式。

    无状态/有状态/守护进程。

2) 应用的数据挂载。

    数据、配置文件。

3) 应用的可访问性。

【参考】部署MySQL。

1) 配置中心-创建配置项mysql-conf。

    key:my.cnf。

    value:


  
  1. [client]
  2. default-character-set=utf8mb4
  3. [mysql]
  4. default-character-set=utf8mb4
  5. [mysqld]
  6. init_connect= 'SET collation_connection = utf8mb4_unicode_ci'
  7. init_connect= 'SET NAMES utf8mb4'
  8. character-set-server=utf8mb4
  9. collation-server=utf8mb4_unicode_ci
  10. skip-character-set-client-handshake
  11. skip-name-resolve

2) 存储管理-创建存储卷mysql-pvc。

    存储类型:nfs-storage。

3) 应用负载-创建有状态副本集xx-mysql。

    镜像:mysql:5.7.35,使用默认端口。

    环境变量:MYSQL_ROOT_PASSWORD=root。

    同步主机时区。

    存储卷:mysql-pvc,读写,/var/lib/mysql。

    配置文件:mysql-conf,只读,/etc/mysql/conf.d。

【参考】部署MySQL负载均衡网络。

1) 应用负载-删除默认创建的服务xx-mysql-xxxx。(可以跳过)

2) 应用负载-创建服务-指定工作负载-创建服务xx-mysql。

    访问类型:通过集群内部IP来访问服务Virtual IP。

    指定工作负载:有状态副本集xx-mysql。

    端口:TCP,tcp-3306,3306,3306。

    外网访问:NodePort。

3) 创建服务xx-mysql后得到一个外网访问的端口号。

    通过 IP地址+端口号 可以访问MySQL服务。

【参考】部署Redis。

1) 配置中心-创建配置项redis-conf。

    key:redis.conf。

    value:


  
  1. appendonly yes
  2. port 6379
  3. bind 0.0.0.0

2) 应用负载-创建有状态副本集xx-redis。

    镜像:redis,使用默认端口。

    启动命令:redis-server,参数:/etc/redis/redis.conf。

    同步主机时区。

    添加存储卷:redis-pvc,存储类型:nfs-storage,读写,/data。

    配置文件:redis-conf,只读,/etc/redis。

【参考】部署Redis负载均衡网络。

1) 应用负载-删除默认创建的服务xx-redis-xxxx。(可以跳过)

2) 应用负载-创建服务-指定工作负载-创建服务xx-redis。

    访问类型:通过集群内部IP来访问服务Virtual IP。

    指定工作负载:有状态副本集xx-redis。

    端口:TCP,tcp-6379,6379,6379。

    外网访问:NodePort。

3) 创建服务xx-redis后得到一个外网访问的端口号。

    通过 IP地址+端口号 可以访问Redis服务。

【参考】部署Elasticsearch。

1) 配置中心-创建配置项es-conf。

    key1:elasticsearch.yml。

    value1:


  
  1. cluster.name: "docker-cluster"
  2. network.host:0.0.0.0

    key2:jvm.options。

    value2:比较长,从Linux本地复制一下。

2) 应用负载-创建有状态副本集xx-es。

   镜像:elasticsearch:7.13.4,使用默认端口。

    环境变量:discovery.type=single-node,ES_JAVA_OPTS=-Xms512m -Xmx512m。

    同步主机时区。

    添加存储卷:es-pvc,存储类型:nfs-storage,读写,/usr/share/elasticsearch/data。

    配置文件:es-conf,只读,/usr/share/elasticsearch/config/elasticsearch.yml,子路径elasticsearch.yml,特定键和路径elasticsearch.yml和elasticsearch.yml。

    配置文件:es-conf,只读,/usr/share/elasticsearch/config/jvm.options,子路径jvm.options,特定键和路径jvm.options和jvm.options。

【参考】部署Elasticsearch负载均衡网络。

1) 应用负载-删除默认创建的服务xx-es-xxxx。(可以跳过)

2) 应用负载-创建服务-指定工作负载-创建服务xx-es。

    访问类型:通过集群内部IP来访问服务Virtual IP。

    指定工作负载:有状态副本集xx-es。

    端口:TCP,tcp-9200,9200,9200,TCP,tcp-9300,9300,9300。

    外网访问:NodePort。

3) 创建服务xx-es后得到一个外网访问的端口号。

    通过 IP地址+端口号 可以访问Elasticsearch服务。

【参考】通过应用商店部署RabbitMQ。

1) 应用商店-RabbitMQ-部署。

    应用名称、版本。

    企业空间-集群-项目。

    enable Data Persistence。

    username、passwork。

2) 编辑外网访问。

    访问方式:NodePort。

    通过 IP地址+端口号 可以访问RabbitMQ服务。

KubeSphere部署项目

【推荐】项目上云的四个要点。

1) 部署中间件。

    以有状态副本集方式部署、导入默认数据。

2) 部署微服务。

    制作镜像、无状态部署。

3) 搭建网络。

    中间件、微服务之间一般通过内网互相访问。

4) 配置。

    生产配置分离。

【参考】项目上云。

1) 部署MySQL、Redis。

2) 迁移数据库。

    MySQL Workbench提供了快捷方式。

    按照向导一步一步进行迁移。

3) 部署Nacos。

    配置中心-创建配置nacos-conf。

        key1:application.properties。

        value2:比较长,从本地复制一下。

            修改:# Connect URL of DB,127.0.0.1:3306 => xx-mysql.xx:3306,修改用户名、密码。

        key2:cluster.conf。

        value2:比较长,从本地复制一下。

            添加:

                xx-nacos-v1-0.xx-nacos.xx.svc.cluster.local:8848

    应用负载-创建有状态服务xx-nacos。

        1副本。

        镜像:nacos/nacos-server:v2.0.3。

        服务设置:TCP,tcp-8848,8848,8848。

        健康检查器:存活检查,HTTP,/nacos,8848。

        环境变量:MODE,standalone。

        同步主机时区。

        配置文件:nacos-conf,只读,/home/nacos/conf/application.properties,子路径application.properties,特定键和路径application.properties和application.properties。

        配置文件:nacos-conf,只读,/home/nacos/conf/cluster.conf,子路径cluster.conf,特定键和路径cluster.conf和cluster.conf。

4) 部署微服务。

    将微服务打包成镜像。

        使用Maven打包微服务。

        在微服务中创建Dockerfile。

        (示例Dockerfile中读取的是prod环境的配置,需事先在Nacos配置中心创建prod配置文件)


  
  1. FROM openjdk:8-jdk
  2. LABEL maintainer=lalixiaozhu
  3. # docker run -e PARAMS="--server.port 9090"
  4. ENV PARAMS= "--server.port=8080 --spring.profiles.active=prod --spring.cloud.nacos.discovery.server-addr=xx-nacos.xx:8848 --spring.cloud.nacos.config.server-addr=xx-nacos.xx:8848 --spring.cloud.nacos.config.namespace=prod --spring.cloud.nacos.config.file-extension=yml"
  5. RUN /bin/cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime && echo 'Asia/Shanghai' >/etc/timezone
  6. COPY target/*.jar /app.jar
  7. EXPOSE 8080
  8. ENTRYPOINT [ "/bin/sh", "-c", "java -Dfile.encoding=utf8 -Djava.security.egd=file:/dev/./urandom -jar app.jar ${PARAMS}"]

        创建一个文件夹,名称为服务名,放入Dockerfile,并创建target/,放入jar包。

        将服务文件夹上传到任一服务器节点。

        在服务器上执行:

docker build -t xx-xx:v1.0 -f Dockerfile .

    开通阿里云-容器镜像服务。

        创建公开的命名空间。

        查看命名空间详情,看到操作指南。

        根据操作指南,将镜像推送到Registry。

    应用负载-创建无状态服务。

        微服务名,版本号。

        镜像:已推送镜像,使用默认端口。

        同步主机时区。

    配置微服务。

        在Nacos配置中心修改微服务的线上配置,确保微服务使用的是我们部署在服务器上的中间件。

    按以上流程部署所有微服务。

5 DevOps

【强制】DevOps。

DevOps,开发运维一体化,是一组过程、方法与系统的统称,用于促进开发、技术运营和质量保证部门之间的沟通、协作与整合。

随着敏捷软件开发日趋流行,持续集成(CI)和持续交付(CD)已经成为该领域一个理想的解决方案。在CI/CD工作流中,每次集成都通过自动化构建来验证,包括编码、发布和测试,从而帮助开发者提前发现集成错误,团队也可以快速、安全、可靠地将内部软件交付到生产环境。

【参考】创建DevOps工程。

1) 使用企业self-provisioner账号登录,创建一个DevOps工程。

    邀请其他用户加入工程,可选身份:工程管理员、工程普通成员、工程观察者。

2) 使用工程管理员账号登录,创建流水线。

3) 编辑流水线,选择持续集成&交付(CI/CD)模板。

    拉取代码。

        指定容器maven。

            git。

                添加凭证。选择分支。

    项目编译。

        指定容器maven。

            shell脚本。

mvn clean package -Dmaven.test.skip=true

    构建镜像。

        在微服务target目录下准备好Dockerfile和jar包。

        指定容器maven。

            shell脚本。

docker build -t <微服务名>:latest -f <微服务名>/Dockerfile ./<微服务名>/

        并行构建其他所有微服务镜像。

    推送镜像。

        指定容器maven。

            shell脚本。


  
  1. docker tag <微服务名>:latest $REGISTRY/ $DOCKERHUB_NAMESPACE/<微服务名>:SNAPSHOT- $BUILD_NUMBE
  2. docker push $REGISTRY/ $DOCKERHUB_NAMESPACE/<微服务名>:SNAPSHOT- $BUILD_NUMBE

           添加凭证。

   部署到dev环境。

       配置 <微服务名>/deploy/**

       启用变量替换 true

       kubeconfigId "$KUBECONFIG_CREDENTIAL_ID"

   发送确认邮件。

       邮件。

4) 排错、排错、还是排错。

5) 创建另一个流水线,用来部署前端代码。

   拉取代码。

   项目编译。

   构建镜像。

   推送到dev环境。

   发送确认邮件。

6) 在Gitee上为仓库添加WebHook。

   当检测到分支代码发生变化时,触发流水线运行。

6 附录

6.1 Kubernetes附录

sc.yaml


  
  1. ## 创建了一个存储类
  2. apiVersion: storage.k8s.io/v1
  3. kind: StorageClass
  4. metadata:
  5. name: nfs-storage
  6. annotations:
  7. storageclass.kubernetes.io/is-default-class: "true"
  8. provisioner: k8s-sigs.io/nfs-subdir-external-provisioner
  9. parameters:
  10. archiveOnDelete: "true" ## 删除pv的时候,pv的内容是否要备份
  11. ---
  12. apiVersion: apps/v1
  13. kind: Deployment
  14. metadata:
  15. name: nfs-client-provisioner
  16. labels:
  17. app: nfs-client-provisioner
  18. # replace with namespace where provisioner is deployed
  19. namespace: default
  20. spec:
  21. replicas: 1
  22. strategy:
  23. type: Recreate
  24. selector:
  25. matchLabels:
  26. app: nfs-client-provisioner
  27. template:
  28. metadata:
  29. labels:
  30. app: nfs-client-provisioner
  31. spec:
  32. serviceAccountName: nfs-client-provisioner
  33. containers:
  34. - name: nfs-client-provisioner
  35. image: registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/nfs-subdir-external-provisioner:v4.0.2
  36. # resources:
  37. # limits:
  38. # cpu: 10m
  39. # requests:
  40. # cpu: 10m
  41. volumeMounts:
  42. - name: nfs-client-root
  43. mountPath: /persistentvolumes
  44. env:
  45. - name: PROVISIONER_NAME
  46. value: k8s-sigs.io/nfs-subdir-external-provisioner
  47. - name: NFS_SERVER
  48. value: 172.31.0.4 ## 指定自己nfs服务器地址
  49. - name: NFS_PATH
  50. value: /nfs/data ## nfs服务器共享的目录
  51. volumes:
  52. - name: nfs-client-root
  53. nfs:
  54. server: 172.31.0.4
  55. path: /nfs/data
  56. ---
  57. apiVersion: v1
  58. kind: ServiceAccount
  59. metadata:
  60. name: nfs-client-provisioner
  61. # replace with namespace where provisioner is deployed
  62. namespace: default
  63. ---
  64. kind: ClusterRole
  65. apiVersion: rbac.authorization.k8s.io/v1
  66. metadata:
  67. name: nfs-client-provisioner-runner
  68. rules:
  69. - apiGroups: [ ""]
  70. resources: [ "nodes"]
  71. verbs: [ "get", "list", "watch"]
  72. - apiGroups: [ ""]
  73. resources: [ "persistentvolumes"]
  74. verbs: [ "get", "list", "watch", "create", "delete"]
  75. - apiGroups: [ ""]
  76. resources: [ "persistentvolumeclaims"]
  77. verbs: [ "get", "list", "watch", "update"]
  78. - apiGroups: [ "storage.k8s.io"]
  79. resources: [ "storageclasses"]
  80. verbs: [ "get", "list", "watch"]
  81. - apiGroups: [ ""]
  82. resources: [ "events"]
  83. verbs: [ "create", "update", "patch"]
  84. ---
  85. kind: ClusterRoleBinding
  86. apiVersion: rbac.authorization.k8s.io/v1
  87. metadata:
  88. name: run-nfs-client-provisioner
  89. subjects:
  90. - kind: ServiceAccount
  91. name: nfs-client-provisioner
  92. # replace with namespace where provisioner is deployed
  93. namespace: default
  94. roleRef:
  95. kind: ClusterRole
  96. name: nfs-client-provisioner-runner
  97. apiGroup: rbac.authorization.k8s.io
  98. ---
  99. kind: Role
  100. apiVersion: rbac.authorization.k8s.io/v1
  101. metadata:
  102. name: leader-locking-nfs-client-provisioner
  103. # replace with namespace where provisioner is deployed
  104. namespace: default
  105. rules:
  106. - apiGroups: [ ""]
  107. resources: [ "endpoints"]
  108. verbs: [ "get", "list", "watch", "create", "update", "patch"]
  109. ---
  110. kind: RoleBinding
  111. apiVersion: rbac.authorization.k8s.io/v1
  112. metadata:
  113. name: leader-locking-nfs-client-provisioner
  114. # replace with namespace where provisioner is deployed
  115. namespace: default
  116. subjects:
  117. - kind: ServiceAccount
  118. name: nfs-client-provisioner
  119. # replace with namespace where provisioner is deployed
  120. namespace: default
  121. roleRef:
  122. kind: Role
  123. name: leader-locking-nfs-client-provisioner
  124. apiGroup: rbac.authorization.k8s.io

6.2 KubeSphere附录

metrics.yaml


  
  1. apiVersion: v1
  2. kind: ServiceAccount
  3. metadata:
  4. labels:
  5. k8s-app: metrics-server
  6. name: metrics-server
  7. namespace: kube-system
  8. ---
  9. apiVersion: rbac.authorization.k8s.io/v1
  10. kind: ClusterRole
  11. metadata:
  12. labels:
  13. k8s-app: metrics-server
  14. rbac.authorization.k8s.io/aggregate-to-admin: "true"
  15. rbac.authorization.k8s.io/aggregate-to-edit: "true"
  16. rbac.authorization.k8s.io/aggregate-to-view: "true"
  17. name: system:aggregated-metrics-reader
  18. rules:
  19. - apiGroups:
  20. - metrics.k8s.io
  21. resources:
  22. - pods
  23. - nodes
  24. verbs:
  25. - get
  26. - list
  27. - watch
  28. ---
  29. apiVersion: rbac.authorization.k8s.io/v1
  30. kind: ClusterRole
  31. metadata:
  32. labels:
  33. k8s-app: metrics-server
  34. name: system:metrics-server
  35. rules:
  36. - apiGroups:
  37. - ""
  38. resources:
  39. - pods
  40. - nodes
  41. - nodes/stats
  42. - namespaces
  43. - configmaps
  44. verbs:
  45. - get
  46. - list
  47. - watch
  48. ---
  49. apiVersion: rbac.authorization.k8s.io/v1
  50. kind: RoleBinding
  51. metadata:
  52. labels:
  53. k8s-app: metrics-server
  54. name: metrics-server-auth-reader
  55. namespace: kube-system
  56. roleRef:
  57. apiGroup: rbac.authorization.k8s.io
  58. kind: Role
  59. name: extension-apiserver-authentication-reader
  60. subjects:
  61. - kind: ServiceAccount
  62. name: metrics-server
  63. namespace: kube-system
  64. ---
  65. apiVersion: rbac.authorization.k8s.io/v1
  66. kind: ClusterRoleBinding
  67. metadata:
  68. labels:
  69. k8s-app: metrics-server
  70. name: metrics-server:system:auth-delegator
  71. roleRef:
  72. apiGroup: rbac.authorization.k8s.io
  73. kind: ClusterRole
  74. name: system:auth-delegator
  75. subjects:
  76. - kind: ServiceAccount
  77. name: metrics-server
  78. namespace: kube-system
  79. ---
  80. apiVersion: rbac.authorization.k8s.io/v1
  81. kind: ClusterRoleBinding
  82. metadata:
  83. labels:
  84. k8s-app: metrics-server
  85. name: system:metrics-server
  86. roleRef:
  87. apiGroup: rbac.authorization.k8s.io
  88. kind: ClusterRole
  89. name: system:metrics-server
  90. subjects:
  91. - kind: ServiceAccount
  92. name: metrics-server
  93. namespace: kube-system
  94. ---
  95. apiVersion: v1
  96. kind: Service
  97. metadata:
  98. labels:
  99. k8s-app: metrics-server
  100. name: metrics-server
  101. namespace: kube-system
  102. spec:
  103. ports:
  104. - name: https
  105. port: 443
  106. protocol: TCP
  107. targetPort: https
  108. selector:
  109. k8s-app: metrics-server
  110. ---
  111. apiVersion: apps/v1
  112. kind: Deployment
  113. metadata:
  114. labels:
  115. k8s-app: metrics-server
  116. name: metrics-server
  117. namespace: kube-system
  118. spec:
  119. selector:
  120. matchLabels:
  121. k8s-app: metrics-server
  122. strategy:
  123. rollingUpdate:
  124. maxUnavailable: 0
  125. template:
  126. metadata:
  127. labels:
  128. k8s-app: metrics-server
  129. spec:
  130. containers:
  131. - args:
  132. - --cert-dir=/tmp
  133. - --kubelet-insecure-tls
  134. - --secure-port=4443
  135. - --kubelet-preferred-address-types=InternalIP,ExternalIP,Hostname
  136. - --kubelet-use-node-status-port
  137. image: registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/metrics-server:v0.4.3
  138. imagePullPolicy: IfNotPresent
  139. livenessProbe:
  140. failureThreshold: 3
  141. httpGet:
  142. path: /livez
  143. port: https
  144. scheme: HTTPS
  145. periodSeconds: 10
  146. name: metrics-server
  147. ports:
  148. - containerPort: 4443
  149. name: https
  150. protocol: TCP
  151. readinessProbe:
  152. failureThreshold: 3
  153. httpGet:
  154. path: /readyz
  155. port: https
  156. scheme: HTTPS
  157. periodSeconds: 10
  158. securityContext:
  159. readOnlyRootFilesystem: true
  160. runAsNonRoot: true
  161. runAsUser: 1000
  162. volumeMounts:
  163. - mountPath: /tmp
  164. name: tmp-dir
  165. nodeSelector:
  166. kubernetes.io/os: linux
  167. priorityClassName: system-cluster-critical
  168. serviceAccountName: metrics-server
  169. volumes:
  170. - emptyDir: {}
  171. name: tmp-dir
  172. ---
  173. apiVersion: apiregistration.k8s.io/v1
  174. kind: APIService
  175. metadata:
  176. labels:
  177. k8s-app: metrics-server
  178. name: v1beta1.metrics.k8s.io
  179. spec:
  180. group: metrics.k8s.io
  181. groupPriorityMinimum: 100
  182. insecureSkipTLSVerify: true
  183. service:
  184. name: metrics-server
  185. namespace: kube-system
  186. version: v1beta1
  187. versionPriority: 100

kubesphere-installer.yaml


  
  1. ---
  2. apiVersion: apiextensions.k8s.io/v1beta1
  3. kind: CustomResourceDefinition
  4. metadata:
  5. name: clusterconfigurations.installer.kubesphere.io
  6. spec:
  7. group: installer.kubesphere.io
  8. versions:
  9. - name: v1alpha1
  10. served: true
  11. storage: true
  12. scope: Namespaced
  13. names:
  14. plural: clusterconfigurations
  15. singular: clusterconfiguration
  16. kind: ClusterConfiguration
  17. shortNames:
  18. - cc
  19. ---
  20. apiVersion: v1
  21. kind: Namespace
  22. metadata:
  23. name: kubesphere-system
  24. ---
  25. apiVersion: v1
  26. kind: ServiceAccount
  27. metadata:
  28. name: ks-installer
  29. namespace: kubesphere-system
  30. ---
  31. apiVersion: rbac.authorization.k8s.io/v1
  32. kind: ClusterRole
  33. metadata:
  34. name: ks-installer
  35. rules:
  36. - apiGroups:
  37. - ""
  38. resources:
  39. - '*'
  40. verbs:
  41. - '*'
  42. - apiGroups:
  43. - apps
  44. resources:
  45. - '*'
  46. verbs:
  47. - '*'
  48. - apiGroups:
  49. - extensions
  50. resources:
  51. - '*'
  52. verbs:
  53. - '*'
  54. - apiGroups:
  55. - batch
  56. resources:
  57. - '*'
  58. verbs:
  59. - '*'
  60. - apiGroups:
  61. - rbac.authorization.k8s.io
  62. resources:
  63. - '*'
  64. verbs:
  65. - '*'
  66. - apiGroups:
  67. - apiregistration.k8s.io
  68. resources:
  69. - '*'
  70. verbs:
  71. - '*'
  72. - apiGroups:
  73. - apiextensions.k8s.io
  74. resources:
  75. - '*'
  76. verbs:
  77. - '*'
  78. - apiGroups:
  79. - tenant.kubesphere.io
  80. resources:
  81. - '*'
  82. verbs:
  83. - '*'
  84. - apiGroups:
  85. - certificates.k8s.io
  86. resources:
  87. - '*'
  88. verbs:
  89. - '*'
  90. - apiGroups:
  91. - devops.kubesphere.io
  92. resources:
  93. - '*'
  94. verbs:
  95. - '*'
  96. - apiGroups:
  97. - monitoring.coreos.com
  98. resources:
  99. - '*'
  100. verbs:
  101. - '*'
  102. - apiGroups:
  103. - logging.kubesphere.io
  104. resources:
  105. - '*'
  106. verbs:
  107. - '*'
  108. - apiGroups:
  109. - jaegertracing.io
  110. resources:
  111. - '*'
  112. verbs:
  113. - '*'
  114. - apiGroups:
  115. - storage.k8s.io
  116. resources:
  117. - '*'
  118. verbs:
  119. - '*'
  120. - apiGroups:
  121. - admissionregistration.k8s.io
  122. resources:
  123. - '*'
  124. verbs:
  125. - '*'
  126. - apiGroups:
  127. - policy
  128. resources:
  129. - '*'
  130. verbs:
  131. - '*'
  132. - apiGroups:
  133. - autoscaling
  134. resources:
  135. - '*'
  136. verbs:
  137. - '*'
  138. - apiGroups:
  139. - networking.istio.io
  140. resources:
  141. - '*'
  142. verbs:
  143. - '*'
  144. - apiGroups:
  145. - config.istio.io
  146. resources:
  147. - '*'
  148. verbs:
  149. - '*'
  150. - apiGroups:
  151. - iam.kubesphere.io
  152. resources:
  153. - '*'
  154. verbs:
  155. - '*'
  156. - apiGroups:
  157. - notification.kubesphere.io
  158. resources:
  159. - '*'
  160. verbs:
  161. - '*'
  162. - apiGroups:
  163. - auditing.kubesphere.io
  164. resources:
  165. - '*'
  166. verbs:
  167. - '*'
  168. - apiGroups:
  169. - events.kubesphere.io
  170. resources:
  171. - '*'
  172. verbs:
  173. - '*'
  174. - apiGroups:
  175. - core.kubefed.io
  176. resources:
  177. - '*'
  178. verbs:
  179. - '*'
  180. - apiGroups:
  181. - installer.kubesphere.io
  182. resources:
  183. - '*'
  184. verbs:
  185. - '*'
  186. - apiGroups:
  187. - storage.kubesphere.io
  188. resources:
  189. - '*'
  190. verbs:
  191. - '*'
  192. - apiGroups:
  193. - security.istio.io
  194. resources:
  195. - '*'
  196. verbs:
  197. - '*'
  198. - apiGroups:
  199. - monitoring.kiali.io
  200. resources:
  201. - '*'
  202. verbs:
  203. - '*'
  204. - apiGroups:
  205. - kiali.io
  206. resources:
  207. - '*'
  208. verbs:
  209. - '*'
  210. - apiGroups:
  211. - networking.k8s.io
  212. resources:
  213. - '*'
  214. verbs:
  215. - '*'
  216. - apiGroups:
  217. - kubeedge.kubesphere.io
  218. resources:
  219. - '*'
  220. verbs:
  221. - '*'
  222. - apiGroups:
  223. - types.kubefed.io
  224. resources:
  225. - '*'
  226. verbs:
  227. - '*'
  228. ---
  229. kind: ClusterRoleBinding
  230. apiVersion: rbac.authorization.k8s.io/v1
  231. metadata:
  232. name: ks-installer
  233. subjects:
  234. - kind: ServiceAccount
  235. name: ks-installer
  236. namespace: kubesphere-system
  237. roleRef:
  238. kind: ClusterRole
  239. name: ks-installer
  240. apiGroup: rbac.authorization.k8s.io
  241. ---
  242. apiVersion: apps/v1
  243. kind: Deployment
  244. metadata:
  245. name: ks-installer
  246. namespace: kubesphere-system
  247. labels:
  248. app: ks-install
  249. spec:
  250. replicas: 1
  251. selector:
  252. matchLabels:
  253. app: ks-install
  254. template:
  255. metadata:
  256. labels:
  257. app: ks-install
  258. spec:
  259. serviceAccountName: ks-installer
  260. containers:
  261. - name: installer
  262. image: kubesphere/ks-installer:v3.1.1
  263. imagePullPolicy: "Always"
  264. resources:
  265. limits:
  266. cpu: "1"
  267. memory: 1Gi
  268. requests:
  269. cpu: 20m
  270. memory: 100Mi
  271. volumeMounts:
  272. - mountPath: /etc/localtime
  273. name: host-time
  274. volumes:
  275. - hostPath:
  276. path: /etc/localtime
  277. type: ""
  278. name: host-time

cluster-configuration.yaml


  
  1. ---
  2. apiVersion: installer.kubesphere.io/v1alpha1
  3. kind: ClusterConfiguration
  4. metadata:
  5. name: ks-installer
  6. namespace: kubesphere-system
  7. labels:
  8. version: v3.1.1
  9. spec:
  10. persistence:
  11. storageClass: "" # If there is no default StorageClass in your cluster, you need to specify an existing StorageClass here.
  12. authentication:
  13. jwtSecret: "" # Keep the jwtSecret consistent with the Host Cluster. Retrieve the jwtSecret by executing "kubectl -n kubesphere-system get cm kubesphere-config -o yaml | grep -v "apiVersion" | grep jwtSecret" on the Host Cluster.
  14. local_registry: "" # Add your private registry address if it is needed.
  15. etcd:
  16. monitoring: true # Enable or disable etcd monitoring dashboard installation. You have to create a Secret for etcd before you enable it.
  17. endpointIps: 172.31.0.4 # etcd cluster EndpointIps. It can be a bunch of IPs here.
  18. port: 2379 # etcd port.
  19. tlsEnable: true
  20. common:
  21. redis:
  22. enabled: true
  23. openldap:
  24. enabled: true
  25. minioVolumeSize: 20Gi # Minio PVC size.
  26. openldapVolumeSize: 2Gi # openldap PVC size.
  27. redisVolumSize: 2Gi # Redis PVC size.
  28. monitoring:
  29. # type: external # Whether to specify the external prometheus stack, and need to modify the endpoint at the next line.
  30. endpoint: http://prometheus-operated.kubesphere-monitoring-system.svc:9090 # Prometheus endpoint to get metrics data.
  31. es: # Storage backend for logging, events and auditing.
  32. # elasticsearchMasterReplicas: 1 # The total number of master nodes. Even numbers are not allowed.
  33. # elasticsearchDataReplicas: 1 # The total number of data nodes.
  34. elasticsearchMasterVolumeSize: 4Gi # The volume size of Elasticsearch master nodes.
  35. elasticsearchDataVolumeSize: 20Gi # The volume size of Elasticsearch data nodes.
  36. logMaxAge: 7 # Log retention time in built-in Elasticsearch. It is 7 days by default.
  37. elkPrefix: logstash # The string making up index names. The index name will be formatted as ks-<elk_prefix>-log.
  38. basicAuth:
  39. enabled: false
  40. username: ""
  41. password: ""
  42. externalElasticsearchUrl: ""
  43. externalElasticsearchPort: ""
  44. console:
  45. enableMultiLogin: true # Enable or disable simultaneous logins. It allows different users to log in with the same account at the same time.
  46. port: 30880
  47. alerting: # (CPU: 0.1 Core, Memory: 100 MiB) It enables users to customize alerting policies to send messages to receivers in time with different time intervals and alerting levels to choose from.
  48. enabled: true # Enable or disable the KubeSphere Alerting System.
  49. # thanosruler:
  50. # replicas: 1
  51. # resources: {}
  52. auditing: # Provide a security-relevant chronological set of records,recording the sequence of activities happening on the platform, initiated by different tenants.
  53. enabled: true # Enable or disable the KubeSphere Auditing Log System.
  54. devops: # (CPU: 0.47 Core, Memory: 8.6 G) Provide an out-of-the-box CI/CD system based on Jenkins, and automated workflow tools including Source-to-Image & Binary-to-Image.
  55. enabled: true # Enable or disable the KubeSphere DevOps System.
  56. jenkinsMemoryLim: 2Gi # Jenkins memory limit.
  57. jenkinsMemoryReq: 1500Mi # Jenkins memory request.
  58. jenkinsVolumeSize: 8Gi # Jenkins volume size.
  59. jenkinsJavaOpts_Xms: 512m # The following three fields are JVM parameters.
  60. jenkinsJavaOpts_Xmx: 512m
  61. jenkinsJavaOpts_MaxRAM: 2g
  62. events: # Provide a graphical web console for Kubernetes Events exporting, filtering and alerting in multi-tenant Kubernetes clusters.
  63. enabled: true # Enable or disable the KubeSphere Events System.
  64. ruler:
  65. enabled: true
  66. replicas: 2
  67. logging: # (CPU: 57 m, Memory: 2.76 G) Flexible logging functions are provided for log query, collection and management in a unified console. Additional log collectors can be added, such as Elasticsearch, Kafka and Fluentd.
  68. enabled: true # Enable or disable the KubeSphere Logging System.
  69. logsidecar:
  70. enabled: true
  71. replicas: 2
  72. metrics_server: # (CPU: 56 m, Memory: 44.35 MiB) It enables HPA (Horizontal Pod Autoscaler).
  73. enabled: false # Enable or disable metrics-server.
  74. monitoring:
  75. storageClass: "" # If there is an independent StorageClass you need for Prometheus, you can specify it here. The default StorageClass is used by default.
  76. # prometheusReplicas: 1 # Prometheus replicas are responsible for monitoring different segments of data source and providing high availability.
  77. prometheusMemoryRequest: 400Mi # Prometheus request memory.
  78. prometheusVolumeSize: 20Gi # Prometheus PVC size.
  79. # alertmanagerReplicas: 1 # AlertManager Replicas.
  80. multicluster:
  81. clusterRole: none # host | member | none # You can install a solo cluster, or specify it as the Host or Member Cluster.
  82. network:
  83. networkpolicy: # Network policies allow network isolation within the same cluster, which means firewalls can be set up between certain instances (Pods).
  84. # Make sure that the CNI network plugin used by the cluster supports NetworkPolicy. There are a number of CNI network plugins that support NetworkPolicy, including Calico, Cilium, Kube-router, Romana and Weave Net.
  85. enabled: true # Enable or disable network policies.
  86. ippool: # Use Pod IP Pools to manage the Pod network address space. Pods to be created can be assigned IP addresses from a Pod IP Pool.
  87. type: calico # Specify "calico" for this field if Calico is used as your CNI plugin. "none" means that Pod IP Pools are disabled.
  88. topology: # Use Service Topology to view Service-to-Service communication based on Weave Scope.
  89. type: none # Specify "weave-scope" for this field to enable Service Topology. "none" means that Service Topology is disabled.
  90. openpitrix: # An App Store that is accessible to all platform tenants. You can use it to manage apps across their entire lifecycle.
  91. store:
  92. enabled: true # Enable or disable the KubeSphere App Store.
  93. servicemesh: # (0.3 Core, 300 MiB) Provide fine-grained traffic management, observability and tracing, and visualized traffic topology.
  94. enabled: true # Base component (pilot). Enable or disable KubeSphere Service Mesh (Istio-based).
  95. kubeedge: # Add edge nodes to your cluster and deploy workloads on edge nodes.
  96. enabled: true # Enable or disable KubeEdge.
  97. cloudCore:
  98. nodeSelector: { "node-role.kubernetes.io/worker": ""}
  99. tolerations: []
  100. cloudhubPort: "10000"
  101. cloudhubQuicPort: "10001"
  102. cloudhubHttpsPort: "10002"
  103. cloudstreamPort: "10003"
  104. tunnelPort: "10004"
  105. cloudHub:
  106. advertiseAddress: # At least a public IP address or an IP address which can be accessed by edge nodes must be provided.
  107. - "" # Note that once KubeEdge is enabled, CloudCore will malfunction if the address is not provided.
  108. nodeLimit: "100"
  109. service:
  110. cloudhubNodePort: "30000"
  111. cloudhubQuicNodePort: "30001"
  112. cloudhubHttpsNodePort: "30002"
  113. cloudstreamNodePort: "30003"
  114. tunnelNodePort: "30004"
  115. edgeWatcher:
  116. nodeSelector: { "node-role.kubernetes.io/worker": ""}
  117. tolerations: []
  118. edgeWatcherAgent:
  119. nodeSelector: { "node-role.kubernetes.io/worker": ""}
  120. tolerations: []

转载:https://blog.csdn.net/qq_42082161/article/details/128879765
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场