大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
在dashboard中,虽然可以做到创建、删除、修改资源等操作,但通常情况下,我们会把它当做健康k8s集群的软件。
网站建设哪家好,找创新互联公司!专注于网页设计、网站建设、微信开发、小程序设计、集团企业网站建设等服务项目。为回馈新老客户创新互联还提供了云霄免费建站欢迎大家使用!
作为Kubernetes的Web用户界面,用户可以通过Dashboard在Kubernetes集群中部署容器化的应用,对应用进行问题处理和管理,并对集群本身进行管理。通过Dashboard,用户可以查看集群中应用的运行情况,同时也能够基于Dashboard创建或修改部署、任务、服务等Kubernetes的资源。通过部署向导,用户能够对部署进行扩缩容,进行滚动更新、重启Pod和部署新应用。当然,通过Dashboard也能够查看Kubernetes资源的状态。
在默认情况下,Dashboard显示默认(default)命名空间下的对象,也可以通过命名空间选择器选择其他的命名空间。在Dashboard用户界面中能够显示集群大部分的对象类型。
集群管理视图用于对节点、命名空间、持久化存储卷、角色和存储类进行管理。 节点视图显示CPU和内存的使用情况,以及此节点的创建时间和运行状态。 命名空间视图会显示集群中存在哪些命名空间,以及这些命名空间的运行状态。角色视图以列表形式展示集群中存在哪些角色,这些角色的类型和所在的命名空间。 持久化存储卷以列表的方式进行展示,可以看到每一个持久化存储卷的存储总量、访问模式、使用状态等信息;管理员也能够删除和编辑持久化存储卷的YAML文件。
工作负载视图显示部署、副本集、有状态副本集等所有的工作负载类型。在此视图中,各种工作负载会按照各自的类型进行组织。 工作负载的详细信息视图能够显示应用的详细信息和状态信息,以及对象之间的关系。
服务发现视图能够将集群内容的服务暴露给集群外的应用,集群内外的应用可以通过暴露的服务调用应用,外部的应用使用外部的端点,内部的应用使用内部端点。
存储视图显示被应用用来存储数据的持久化存储卷申明资源。
配置视图显示集群中应用运行时所使用配置信息,Kubernetes提供了配置字典(ConfigMaps)和秘密字典(Secrets),通过配置视图,能够编辑和管理配置对象,以及查看隐藏的敏感信息。
Pod列表和详细信息页面提供了查看日志视图的链接,通过日志视图不但能够查看Pod的日志信息,也能够查看Pod容器的日志信息。通过Dashboard能够根据向导创建和部署一个容器化的应用,当然也可以通过手工的方式输入指定应用信息,或者通过上传YAML和JSON文件来创建和不受应用。
[root@master https]# wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-rc5/aio/deploy/recommended.yaml
[root@master https]# docker pull kubernetesui/dashboard:v2.0.0-rc5
[root@master https]#vim recommended.yaml
---
kind: Service
apiVersion: v1
metadata:
labels:
k8s-app: kubernetes-dashboard
name: kubernetes-dashboard
namespace: kubernetes-dashboard
spec:
type: NodePort #添加40
ports:
- port: 443
targetPort: 8443
selector:
k8s-app: kubernetes-dashboard
[root@master https]# kubectl apply -f recommended.yaml
[root@master https]# kubectl get svc -n kubernetes-dashboard
PS:如果是使用的旧版本的dashboard, 使用Google浏览器登录,可能是不成功的,需要换成其他的浏览器,比如:火狐。
[root@master https]# kubectl create serviceaccount dashboard-admin -n kube-system
[root@master https]# kubectl create clusterrolebinding dashboard-cluster-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
[root@master https]# kubectl get secrets -n kube-system | grep dashboard-admin
//先得到Token的名称
[root@master https]# kubectl describe secrets -n kube-system dashboard-admin-token-62bh9
//查看上述得到的secret资源的详细信息,会得到token
创建一个资源
查看是否创建成功
[root@master https]# kubectl get secrets -n kube-system | grep dashboard-admin
//先得到Token的名称
[root@master https]# kubectl describe secrets -n kube-system dashboard-admin-token-62bh9
//查看上述得到的secret资源的详细信息,会得到token
设置一个环境变量代表获取的token
[root@master https]# DASH_TOKEN=$(kubectl get secrets -n kube-system dashboard-admin-token-62bh9 -o jsonpath={.data.token} | base64 -d)
将k8s集群的配置信息写入kubeconfig配置文件中。
[root@master https]# kubectl config set-cluster kubernetes --server=192.168.1.21:6443 --kubeconfig=/root/.dashboard-admin.conf
[root@master https]# kubectl config set-credentials dashboard-admin --token=$DASH_TOKEN --kubeconfig=/root/.dashboard-admin.conf
[root@master https]# kubectl config set-context dashboard-admin@kubernetes --cluster=kubernetes --user=dashboard-admin --kubeconfig=/root/.dashboard-admin.conf
[root@master https]# kubectl config use-context dashboard-admin@kubernetes --kubeconfig=/root/.dashboard-admin.conf
[root@master https]# sz /root/.dashboard-admin.conf
//导出到自己习惯的位置即可
Weave Scope 是 Docker 和 Kubernetes 可视化监控工具。Scope 提供了至上而下的集群基础设施和应用的完整视图,用户可以轻松对分布式的容器化应用进行实时监控和问题诊断。
[root@master https]# wget https://cloud.weave.works/k8s/scope.yaml
[root@master ~]# vim scope.yaml #编辑yaml文件
#跳转至213行,修改其service的端口类型
spec:
type: NodePort #修改类型为NodePort
ports:
- name: app
port: 80
protocol: TCP
targetPort: 4040
[root@master https]# kubectl apply -f scope.yaml
[root@master https]# kubectl get pod -o wide -n weave
[root@master https]# kubectl get svc -n weave
#DaemonSet资源对象:weave-scope-agent(代理):负责收集节点的信息;
#deployment资源对象:weave-scope-app(应用):从agent获取数据,通过web UI展示并与用户交互;
#DaemonSet资源对象的特性和deployment相比,就是DaemonSet资源对象会在每个节点上都运行且只能运行一个pod。
#由于每个节点都需要监控,所以用到了DaemonSet这种资源对象
在scope的web界面中,可以查看很多的东西,pod、node节点等详细信息,包括打开容器的终端,查看其日志信息等等
• weave scope可以以其简洁的可视化为我们更生动形象的展现出service/controller/pod等资源对象的管理及简单的web ui操作,方便故障排除及时定位
• weave scope作为web ui目前缺少登录验证,可以利用其他方式里面web服务器的验证做安全管控。
PS:在这里部署的prometheus,并不是Prometheus官网提供的,而是使用的coreos提供的prometheus项目。
Prometheus 相比于其他传统监控工具主要有以下几个特点:
复制链接
[root@master promethes]# yum -y install git
//下载git命令
[root@master promethes]# git clone https://github.com/coreos/kube-prometheus.git
//克隆github上的项目
[root@master promethes]# cd kube-prometheus/manifests/
//进入kube-prometheus的manifests目录
[root@master manifests]# vim grafana-service.yaml #修改grafana的yaml文件
apiVersion: v1
kind: Service
metadata:
labels:
app: grafana
name: grafana
namespace: monitoring
spec:
type: NodePort #改为NodePort类型
ports:
- name: http
port: 3000
targetPort: http
nodePort: 31001 #映射到宿主机31001端口
selector:
app: grafana
[root@master manifests]# vim prometheus-service.yaml #修改prometheus的yaml文件
apiVersion: v1
kind: Service
metadata:
labels:
prometheus: k8s
name: prometheus-k8s
namespace: monitoring
spec:
type: NodePort #改为NodePort类型
ports:
- name: web
port: 9090
targetPort: web
nodePort: 31002 #映射到宿主机31002端口
selector:
app: prometheus
prometheus: k8s
sessionAffinity: ClientIP
[root@master manifests]# vim alertmanager-service.yaml #修改alertmanager的yaml文件
apiVersion: v1
kind: Service
metadata:
labels:
alertmanager: main
name: alertmanager-main
namespace: monitoring
spec:
type: NodePort #改为NodePort类型
ports:
- name: web
port: 9093
targetPort: web
nodePort: 31003 #映射到宿主机31003端口
selector:
alertmanager: main
app: alertmanager
sessionAffinity: ClientIP
[root@master manifests]# cd setup/
//进入setup/目录
[root@master manifests]# kubectl apply -f setup/
//运行setup目录中所有的yaml文件
当执行以下yaml文件时,每个节点会在互联网上下载很多镜像,为了防止下载镜像的时间过长,可以先将我提供的镜像下载到本地,然后导入至各个节点,然后在执行下面的yaml文件,将会省些时间。(如果下载我提供的镜像,建议写个导入镜像的脚本进行导入操作,避免手动导入,造成错误)
[root@master manifests]# cd ..
//返回上一级目录(kube-prometheus)
[root@master kube-prometheus]# kubectl apply -f manifests/
//运行kube-prometheus目录中所有的yaml文件
[root@master ~]# kubectl get pod -n monitoring
客户端访问群集中任意节点的IP+30100端口,即可看到以下界面(默认用户名和密码都是admin)
根据提示更改密码:
依次点击“import”进行导入下面三个模板:
以下可看到监控状态
从grafana的官网搜索https://grafana.com/
复制以下这个模板的id
现在可以看到监控画面了