大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
K8s有状态应用部署
目录:分为两类
1.Headless Service
2.StatefulSet
公司主营业务:成都网站设计、成都网站建设、移动网站开发等业务。帮助企业客户真正实现互联网宣传,提高企业的竞争能力。创新互联是一支青春激扬、勤奋敬业、活力青春激扬、勤奋敬业、活力澎湃、和谐高效的团队。公司秉承以“开放、自由、严谨、自律”为核心的企业文化,感谢他们对我们的高要求,感谢他们从不同领域给我们带来的挑战,让我们激情的团队有机会用头脑与智慧不断的给客户带来惊喜。创新互联推出大安免费做网站回馈大家。
• 部署有状态应用
• 解决Pod独立生命周期,保持Pod启动顺序和唯一性
说在前面的话,像我们的MySQL或者redis了,Zookerper等等这些适不适合部署在K8s中,其实呢不是太适合,但部署在里面也可以,比如部署一个Mysql来讲吧,部署到k8s中还是很容易的就一个Mysql实例,就像部署其他应用一样,通过service、IP去访问它,但是要是作为集群的状态去部署的话,那可能就比较麻烦了。
第一点:比如做一个Mysql的主从,Mysql主从它是有主从拓扑关系的,一个主一个从,而且各自的数据都不一样,这就意味着,你要想搭建一个Mysql的主从,你要知道它的相互的ip地址,就是从肯定要知道主的ip地址,然后从连接主的ip地址,做数据的同步。
第二点:它的存储,它两个存储的信息都不太一样,那怎么去保证它两个数据的存储保证持久化呢,一个集群中可能会有多个节点,要是部署到k8s中,必须要保证部署的应用,在任意的节点都能使用原来的状态,也就是说某一个节点挂了,上面的pod飘移到另一个节点,能不能用到之前的状态,所以要考虑这些问题。
而k8s设计的精髓在于并不是你部署一个单的实例,而是在于它的一个分布式一个部署,具有故障恢复能力的应用,所以就谈到了有状态和无状态应用。
有状态应用:DB,好比一个Mysql主从,考虑两点(自己的存储,必须是远程的存储,在任意节点挂载都恢复原来的状态)而且还有网络ID的唯一,需要做主从的连接,我们的pod是短暂的,重建一个ip就换了,得保证这个ip一直去使用,不管是重建还是迁移pod,都能去使用。
无状态应用:典型的就是web系统,本身就没有什么状态去维护,比如部署了三个副本,不需要考虑其他两个副本是什么样的,跟它没有直接的关系,本地也没有什么持久化的数据,即使其中有一个副本挂了,帮它在其他节点起来,仍然可以继续提供服务,对原基础服务是没有任何影响的,所以这是一个前提,典型的就是web。
在k8s中呢在1.10版本之后有状态部署才支持好一点,但是刚开始在落地K8s的时候,而不会去考虑有状态部署的,主要做无状态的部署,而数据库适不适合部署在k8s中,在看k8s的一些特性,k8s有适合的一些特性,比如具有一些访问比较大的应用,版本迭代快的应用,或者弹性伸缩的一些应用,凡是这些是适合放在k8s,k8s最早就支持无状态,也是一直在推荐,有状态的也是比较复杂,复杂点就在与有状态的都是一些集群化的,比如zookerper,
Mysql主从,这些都是需要自身的一个状态维护的,这些部署进去呢,可能去考虑它这个网络拓扑关系,还有存储状态的持久化,而数据库不具备这些特点,部署一个数据库一般配置比较高一些,可以会抗很多的并发量,而且要扩容的话也是很方便,而且传统的部署文章也很多,也比较成熟,在k8s中部署这些东西,那绝对是一种挑战,所以要根据不同的应用特点去考虑上k8s,不要一味地上k8s,而且得不偿失,达不到预期的效果,领导也会批你,所以在谈有状态部署的话,可以在两者出发,一个是Headless Service维护网络的,一个是StatefulSet维护存储状态的。
statefulSet是一个控制器,与Deployment存在的原则一样,都是部署应用的,而Statefulset它主要是部署有状态应用的,而deployment是部署无状态应用的
Headless Service 其实和service差不多,这不过定义的这个叫无头服务,它们之间唯一的区别就是将Cluster ip 设置为了none,不会帮你配置ip
[root@k8s-master demo]# mkdir headless-service
[root@k8s-master demo]# cd headless-service/
[root@k8s-master headless-service]# vim headless-svc.yaml
apiVersion: v1
kind: Service
metadata:
name: my-service
spec:
clusterIP: None
selector:
app: nginx
ports:
- protocol: TCP
port: 80
targetPort: 9376
[root@k8s-master headless-service]# kubectl create -f headless-svc.yaml
service/my-service created
[root@k8s-master headless-service]# kubectl get svc
kubernetes ClusterIP 10.1.0.1 443/TCP 23h
my-service ClusterIP None 80/TCP 6s
service NodePort 10.1.207.32 80:30963/TCP 87m
zhao ClusterIP 10.1.75.232 80/TCP 9m1s
zhaocheng ClusterIP 10.1.27.206 80/TCP 10m
怎么去访问?我们给它定义一个标识
创建完之后会有这个标识符,它会使用这个DNS来解析这个名称,来相互的访问,headless就不会通过ip去访问了,必须通过名称去访问,
[root@k8s-master headless-service]# vim statefulset.yaml
apiVersion: apps/v1beta1
kind: StatefulSet
metadata:
name: nginx-statefulset
namespace: default
spec:
serviceName: my-service
replicas: 3
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx:latest
ports:
- containerPort: 80
[root@k8s-master headless-service]# kubectl create -f statefulset.yaml
[root@k8s-master headless-service]# kubectl get pod
my-pod 1/1 Running 0 3h60m
nfs-744d977b46-dh9xj 1/1 Running 0 22h
nfs-744d977b46-kcx6h 1/1 Running 0 22h
nfs-744d977b46-wqhc6 1/1 Running 0 22h
nfs-client-provisioner 1/1 Running 0 4h
nginx-797db8dc57-tdd5s 1/1 Running 0 100m
nginx-statefulset-0 1/1 Running 0 73s
nginx-statefulset-1 1/1 Running 0 46s
nginx-statefulset-2 1/1 Running 0 24s
这里的statfulset的 serviceName: my-service字段要关联起来,这样才能去基于名称去访问
可以通过busybox测试工具通过nslookup去测试解析。解析我们的my-service就能解析到
这里会分配一个名称,这个my-service和这个编号是永久的,可以通过这个名称访问pod
要是mysql主从的话就可以通过访问这个标签来连接我们从库的状态,这个是维护的网络状态
然后再来看一下存储状态
官方文档这个实例
https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/
这个其实我们也是部署一个nginx,使用的headless,ClusterIP为none,然后用headless来维护statefulset起得pod网络id为1,以 volumeClaimTemplates:来维护pod独立的一个存储
apiVersion: v1
kind: Service
metadata:
name: nginx
labels:
app: nginx
spec:
ports:
- port: 80
name: web
clusterIP: None
selector:
app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: web
spec:
selector:
matchLabels:
app: nginx # has to match .spec.template.metadata.labels
serviceName: "nginx"
replicas: 3 # by default is 1
template:
metadata:
labels:
app: nginx # has to match .spec.selector.matchLabels
spec:
terminationGracePeriodSeconds: 10
containers:
- name: nginx
image: nginx
ports:
- containerPort: 80
name: web
volumeMounts:
- name: www
mountPath: /usr/share/nginx/html
volumeClaimTemplates:
- metadata:
name: www
spec:
accessModes: [ "ReadWriteOnce" ]
storageClassName: "managed-nfs-storage"
resources:
requests:
storage: 1Gi
这是我们的存储要写我们nfs的名称
managed-nfs-storage
[root@k8s-master headless-service]# kubectl get sc
managed-nfs-storage fuseim.pri/ifs 22h
这里会给我们自动创建pv,并挂载到我们的NFS上
[root@k8s-master headless-service]# kubectl get pod
my-pod 1/1 Running 0 6h5m
nfs 1/1 Running 0 24h
nfs 1/1 Running 0 24h
nfs 1/1 Running 0 24h
nfs-client-provisioner-fbc 1/1 Running 0 6h33m
nginx-797db8dc57-tdd5s 1/1 Running 0 3h64m
nginx-a1-6d5fd7b8dd-w647x 1/1 Running 0 3m28s
nginx-statefulset-0 1/1 Running 0 135m
nginx-statefulset-1 1/1 Running 0 135m
nginx-statefulset-2 1/1 Running 0 134m
web-0 1/1 Running 0 3
web-1 1/1 Running 0 85s
web-2 1/1 Running 0 57s
[root@k8s-master headless-service]# kubectl get pv
pvc-06 1Gi RWO Delete Bound default/www-web-2 managed-nfs-storage 63s
pvc-4f 1Gi RWO Delete Bound default/www-web-0 managed-nfs-storage 6m3s
pvc-a2 5Gi RWX Delete Bound default/my-pvc managed-nfs-storage 6h5m
pvc-bc 1Gi RWO Delete Bound default/www-web-1 managed-nfs-storage
headless保证它的网络,statefulset存储模版来保证每个pod存储的唯一性,这样才解决了有状态应用的两大痛点