怎么使用无状态部署Deployment

网友投稿 394 2023-12-02

怎么使用无状态部署Deployment

本篇内容介绍了“怎么使用无状态部署Deployment”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

创建集群

怎么使用无状态部署Deployment

创建集群时,做好规划,选择优化好的集群配置,可以大大减少后期运维工作,其中部分集群的配置在建立后再也没法修改或者修改极其麻烦。

集群规划

网络规划:

网络类型: Flannel、Terway

            Terway 是阿里云容器服务自研的网络插件,功能上完全兼容 Flannel,如果保守,还是使用 Flannel  

Pod 网络 CIDR

默认 16 的大网段,有效的网段或者其子网 10.0.0.0/8,172.16-31.0.0/12-16,192.168.0.0/16

Service CIDR

默认 20 的网段,可选:10.0.0.0/16-24,172.16-31.0.0/16-24,192.168.0.0/16-24

网段不能冲突重复,建立后没法修改;

多个区域的多个交换机。

公网访问 ApiServer

对于线上等安全要求高的集群,可以选择不暴露 apiserver, 只有私网 SLB, 但是这样没法使用云效发布;

日常预发等集群,可以暴露公网 SLB 到 apiserver, 集群建立后立即为 slb 建立访问控制,限制 slb 只能云效访问;

注: K8s 每次安全漏洞几乎都与 ApiServer 有关,对于线上 K8s 集群,要及时升级补丁,或者不开放公网 apiserver,使用严格的安全组和访问控制。

安全组

设置安全组限定访问范围,为 master 与 worker 机器使用。

Master 机器规划

   为了高可用,一般使用 3 节点, Master 选择规则如下:

节点数 master 规格1-5个4C8G6-20个节点4C16G21-100个节点8C32G100-200个节点16C64G

master 机器的存储建议高性能的 50-100G SSD,因为会运行 ETCD,操作系统占用不超过 8G。

Worker 机器规划

32C64G ECS

存储。系统盘:100G SSD,  数据盘:400G 高效云盘

操作系统:centos 7.4 64 位

阿里云首推神龙机器,没有神龙机器的区域,选用高配 ECS,配置规格根据部署的 POD 规格乘以一定倍数,比如 Java 应用 pod 一般选择 4C8G,ECS 则购买 32C64G 或者 64C128G 为好,设置部署的时候为 pod 设置固定的 request/limit;

我们选用的机器配置:

集群建立与配置

建立集群时设置:

通过控制台建立集群,阿里云容器服务提供的非常简易的一键部署集群功能,通过向导完成 K8S 集群的建立;

按照以上规划设置 master,worker 节点,挂载 /var/lib/docker 到数据盘;

设置合理的 Pod 网络 CIDR, Service CIDR ip 网段;

设置合理的安全策略,是否暴露 apiserver(需要直接云效发布的,需要开放公网暴露,并做严格的访问控制);

ingress 选择安全,可以使用内网,如果需要公网,可以在控制台很方便建立,同时做好访问控制;

kube-proxy 模式,因为 iptables 模式在更新一条规则时把 iptables 锁住引发的性能问题,建议使用 IPVS 模式;

节点 POD 数量,默认 128 太大,一个节点不可能部署这么多,建议改为 64;

节点服务端口访问 (NodePort,SLB),可以适当扩大,默认的也一般足够用。

集群配置修改:

集群扩容,添加已有节点(节点配置参考上文,挂载数据盘使用 /var/lib/docker)     

Master 机器升配:

worker 节点变配或者移除:

kubectl drain --ignore-daemonsets {node.name}

kubectl delete node {node.name}

ECS 升配变配

添加已有节点到集群

命名空间: 

按照应用分组建立 namespace,对于资源占用厉害需要限制的应用分组,设置该 NameSpace 的资源配额与限制;

授权:

子账号如何给其他子账号进行 RBAC 授权

通过堡垒机按应用人员设置权限

部署设置

无状态部署

使用无状态部署 Deployment,实现分批发布。

优化设置模板: apiVersion: apps/v1beta2 kind: Deployment metadata:   annotations:     deployment.kubernetes.io/revision: 34# 标签,映射 service   labels:     app: {app_name}-aone   name: {app_name}-aone-1   namespace: {app_name} spec:   progressDeadlineSeconds: 600   replicas: 1   revisionHistoryLimit: 10   selector:     matchLabels:       app: {app_name}-aone# 批量重启更新策略         strategy:     rollingUpdate:       maxSurge: 25%       maxUnavailable: 25%    type: RollingUpdate   template:     metadata:       labels:         app: {app_name}-aone     spec:       containers:       # 环境变量增加时区         - env:             - name: TZ               value: Asia/Shanghai         - image: >-             registry-vpc--north-2-gov-1.aliyuncs.com/{namespace}/{app_name}:20190820190005           imagePullPolicy: Always          # 启动前执行优雅下线摘除 服务注册           lifecycle:             preStop:              exec:                command:                   - sudo                   - -u                   - admin                   - /home/{user_name}/{app_name}/bin/appctl.sh                   - {app_name}                   - stop          # 存活检查,强烈建议设置                   livenessProbe:             failureThreshold: 10             initialDelaySeconds: 30             periodSeconds: 10             successThreshold: 1             tcpSocket:               port: 5900             timeoutSeconds: 1           name: {app_name}-aone          # 就绪检查,强烈建议设置           readinessProbe:             failureThreshold: 10             initialDelaySeconds: 30             periodSeconds: 10             successThreshold: 1             tcpSocket:               port: 5900             timeoutSeconds: 1          # 资源限制,这个一定要合理设置             resources:             limits:               cpu: 4               memory: 8Gi             requests:               cpu: 4               memory: 8Gi           terminationMessagePath: /dev/termination-log           terminationMessagePolicy: File          # 日志存放目录,映射到节点的/var/lib/docker/logs 数据盘,应用日志目录设置到/home/{user_name}/logs 下           volumeMounts:             - mountPath: /home/{user_name}/logs               name: volume-1553755418538       dnsPolicy: ClusterFirst      ## 私有镜像仓库的密钥,从保密字段获取       imagePullSecrets:         - name: {app_name}-987       restartPolicy: Always       schedulerName: default-scheduler       securityContext: {}       terminationGracePeriodSeconds: 30      # 日志存放目录,映射到节点的/var/lib/docker/logs 数据盘       volumes:         - hostPath:             path: /var/lib/docker/logs/{app_name}            type:            name: volume-1553755418538

服务设置

因为容器服务的 Cloud Controller Manager 会同步删除 service 建立关联的 SLB,为了防止 service 配置修改误删除 slb 故障,并导致域名、安全等配置需要修改的坑,强烈建议 service 与 slb 解耦,service 采用 NodePort 的方式,slb 另外建立后端服务器指向集群节点,如果需要透传真实 IP,并考虑负载均衡,需要遵守一定的配置规则和方法,参考 这个文章。

NodePort:

apiVersion: v1 kind: Servicemetadata:   name: {app_name}   namespace: {namespaces}spec:   clusterIP: 10.1.50.65## 策略关系到是否透传真实 IP   externalTrafficPolicy: Cluster   ports:     - name:  {app_name}-80-7001       nodePort: 32653       port: 80       protocol: TCP       targetPort: 7001     - name:  {app_name}-5908-5908       nodePort: 30835       port: 5108       protocol: TCP       targetPort: 5108   selector:     app:  {app_name}   sessionAffinity: None   type: NodePortstatus:   loadBalancer: {}

然后在负载均衡管理页面,选择后端服务器指向集群的 worker 机器,设置端口为以上服务的端口:32653,完成配置,这样在集群 service 修改或者删除重建的时候,slb 不会被集群的 CCM 删除,不会涉及到域名,安全等配置修改。同时,可以设置一些策略,需要升级修改服务配置时,分批切流等。

“怎么使用无状态部署Deployment”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注网站,小编将为大家输出更多高质量的实用文章!

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:数据库事务的四大特性及事务的隔离级别是什么
下一篇:怎么检测Web服务请求丢失问题
相关文章

 发表评论

暂时没有评论,来抢沙发吧~