使用命令、UI界面或者基于CPU使用情况自动快速扩容和缩容应用程序实例。保证应用业务高峰并发时的高可用性;业务低峰时回收资源。以最小成本运行服务。
在节点故障时重新启动失败的容器,替换和重新部署。保证预期的副本数量; 杀死健康检查失败的容器。并目在未准备好之前不会处理客户端请求,确保线上服务不中断。
K8S采用滚动更新策略更新应用,一次更新一个Pod, 而不是同时删除所有Pod,如果更新过程中出现问题,将回滚更改,确保升级不影响业务。
K8S为多个容器提供一个统一访问入口(内部IP地址和一个DNS名称),并且负载均衡关联的所有容器,使得用户无需考虑容器IP问题。
管理机密数据和应用程序配置,而不需要把敏感数据暴露在镜像里,提高敏感数据安全性。并可以将一些常用的配置存储在K8S中,方便应用程序使用。
挂载外部存储系统,无论是来自本地存储、公有云( 如AWS、阿里云的OSS),还是网络存储( 如NFS、GlusterFS、 Ceph) 都作为集群资源的一部分使用,极大提高存储使用灵活性。
提供一次性任务,定时任务;满足批量数据处理和分析的场景。
1、DevOps开发运维一体化
2、微服务
master节点负责为用户和客户端暴露API、追踪集群节点的健康状态、调度工作负载、以及编排其他组件之间的通信等。
(单个 master 节点即可完成其所有的功能,但是出于冗余及负载均衡的目的,生产环境中通常需要多个 master!)
组件介绍:
1、API Server
提供了资源操作的唯一入口,负责接收、校验并响应所有的 REST请求,结果被持久的存储于 etcd 中,并提供认证、授权、访问控制、API注册和发现等机制。
kubectl 是最常用的交互式命令行工具。
2、ETCD
etcd是Kubernetes提供默认的存储系统,用于保存集群的状态数据,比如Pod、Service 等对象信息。
是基于Raft一致性算法开发的分布式key-value存储,可用于服务发现、监控机制、共享配置以及一致性保障(如数据库leader选举、分布式锁等)
3、controller-manager
通过kube-apiserver监控整个集群的状态,负责维护集群的状态,比如故障检测、自动扩展、滚动更新等。
是由一系列的控制器组成,这些控制器主要包括三组:
RelicaSet:确保预期的Pod副本数量
Deployment:无状态应用部署(常见的web服务)
StatefulSet:有状态应用部署(mysql、oracle)
DaemonSet:确保所有Node运行同一个Pod
Job:一次性任务
Cronjob:定时任务
NodeController
ServiceController
PVBinderController
BootstrapSignerController
TokenCleanerController
4、scheduler
负责分配调度Pod到集群内的节点上,它监听kube-apiserver,查询还未分配Node节点的Pod,然后根据调度策略为这些Pod分配node节点。
还支持用户自定义调度器,可通过以下三种方式可以指定Pod只运行在特定的Node节点上。
1、nodeSelector:只调度到匹配指定label的Node上
2、nodeAffinity:功能更丰富的Node选择器,比如支持集合操作
3、podAffinity:调度到满足条件的Pod所在的Node上
1、kubelet
每个Node节点上都运行一个kubelet守护进程,默认监听10250端口,接收并执行master发来的指令,管理Pod及Pod中的容器。每个kubelet进程会在API Server上注册节点自身信息,定期向master节点汇报节点的资源使用情况进行信息更新
管理已分配给节点的Pod,比如:安装Pod所需的volume,下载Pod的Secrets,Pod中运行的 docker(或experimentally,rkt)容器,还会定期执行容器健康检查。
2、container runtime 是容器运行时的环境,负责镜像管理以及容器的真正执行。
目前,k8s 所支持的容器运行环境:Docker(最常见)、RKT (可作为docker工具的替代方案)等等…
3、kube-proxy
在Node节点上实现Pod网络代理,维护网络规则。
通过userspace、iptables、ipvs这三种代理模式来为服务配置四层负载均衡。
多个master节点通过 LB 负载均衡实现 Kubernetes 集群高可用性。