k8s的职责
自动化容器的部署和复制
随时扩展或收缩容器规模
容器分组Group,并且提供容器间的负载均衡
实时监控,即时故障发现,自动替换
Master
Master是集群的网关和中枢枢纽,主要作用:暴露API接口,跟踪其他服务器的健康状态、以最优方式调度负载,以及编排其他组件之间的通信。单个的Master节点可以完成所有的功能,但是考虑单点故障的痛点,生产环境中通常要部署多个Master节点,组成Cluster.
Node
Node是k8s的工作节点,负责接收来自Master的工作指令,并根据指令相应地创建和销毁Pod对象,以及调整网络规则进行合理路由和流量转发。生产环境中,Node节点可以有N个。
Pod
kubelet kube-proxy docker
国内安装k8s途径
# 以下命令在三台虚拟机执行 yz10 yz20 yz21 mkdir /usr/local/k8s-install cd /usr/local/k8s-install
10.211.55.10 yz10 Master节点 10.211.55.20 yz20 Node节点 10.211.55.21 yz21 Node节点
# 1. 调整时区 timedatectl set-timezone Asia/Shanghai # 2. 关闭selinux和防火墙 sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config setenforce 0 systemctl disable firewalld systemctl stop firewalld # 3. k8sadmin镜像下载附带对应的docker # 4. 镜像上传到每个节点 mkdir -p /usr/local/k8s-install scp -r kubernetes-1.14 root@yz10:/usr/local/k8s-install # 5. 安装docker,记得配置加速器 tar -xf docker-ce-18.09.tar.gz cd docker yum localinstall -y *.rpm # 6. 确认cgroup为 cgroupfs docker info|grep cgroup # 7. 安装kubeadm tar -xf kube114-rpm.tar.gz cd kube114-rpm yum localinstall -y *.rpm # 8. 关闭交换区 swapoff -a #关闭 vi /etc/fstab # 注释这行 永久关闭 #/dev/mapper/centos-swap swap swap defaults 0 0 # 9. 配置网桥 cat <<EOF > /etc/sysctl.d/k8s.conf net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 EOF sysctl --system # 10. 通过镜像安装k8s docker load -i k8s-114-images.tar.gz docker load -i flannel-dashboard.tar.gz
确保上述节点都已经安装好了k8s。
# master主服务器网络设置 kubeadm init --kubernetes-version v1.14.1 --pod-network-cidr 10.244.0.0/16 # 运行完毕后查看需要手动运行的命令 mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config # 查看节点, 可以看到只有一个master节点 kubectl get nodes NAME STATUS ROLES AGE VERSION yz10 NotReady master 5m21s v1.14.1 # 查看存在问题的pod kubectl get pod --all-namespaces
# pending 是需要安装flannel网络组件 kubectl create -f /usr/local/k8s-install/kubernetes-1.14/kube-flannel.yml # 再次查看,已经处于running状态 kubectl get pod --all-namespaces # 查看master的token kubeadm token list # 其余节点加入master节点集群 kubeadm join 10.211.55.10:6443 --token 63zvtd.rej4gqrhselysqsb --discovery-token-unsafe-skip-ca-verification
master节点运行: kubectl get nodes
可以看到,集群已经部署完毕。
systemctl start kubelet
设置开机启动 systemctl enable kubelet
# master开启仪表盘 kubectl apply -f kubernetes-dashboard.yaml kubectl apply -f admin-role.yaml kubectl apply -f kubernetes-dashboard-admin.rbac.yaml kubectl -n kube-system get svc # 查看pod情况,dashbord running正常 kubectl get pods --all-namespaces # 遇到问题可以删除pod,重新配置 kubectl -n kube-system delete pod/{podName}
访问 http://宿主机ip:32000/ 即可进入dashbord
工作负载 -》 创建 即可
编写第一个k8s部署脚本文件:
apiVersion: extensions/v1beta1 kind: Deployment metadata: name: tomcat-deploy spec: replicas: 2 template: metadata: labels: app: tomcat-cluster spec: containers: - name: tomcat-cluster image: tomcat ports: - containerPort: 8080
与部署相关的常用命令:
# 创建tomcat容器 kubectl create -f tomcat-deploy.yml # 查看部署 kubectl get deployment
service 服务用于对外暴露应用。
编写服务 tomcat-service.yml
apiVersion: v1 kind: Service metadata: name: tomcat-service labels: app: tomcat-service spec: type: NodePort selector: app: tomcat-cluster ports: - port: 18010 targetPort: 8080 nodePort: 32500
# 创建负载均衡服务 kubectl create -f tomcat-service.yml # 查看服务 kubectl get service
# 编辑nfs共享文件设置 vi /etc/exports /usr/local/data/www-data 10.211.55.10/24(rw,sync)
systemctl start nfs.service systemctl start rpcbind.service systemctl enable nfs.service systemctl enable rpcbind.service # exportfs查看 exportfs /usr/local/data/www-data 10.211.55.10/24 # 说明配置生效 # 节点安装工具 yum install -y nfs-utils # 节点安装完毕后 showmount -e yz10 # 挂载文件 mkdir -p /mnt/www-data mount yz10:/usr/local/data/www-data /mnt/www-data
# 查看deployment kubectl get deployment # 删除部署,服务service kubectl delete deployment tomcat-deploy kubectl delete service tomcat-service # 重新部署挂载 vi tomcat-deploy.yml # 修改部署文件
apiVersion: extensions/v1beta1 kind: Deployment metadata: name: tomcat-deploy spec: replicas: 2 template: metadata: labels: app: tomcat-cluster spec: volumes: - name: webapp hostPath: path: /mnt/www-data containers: - name: tomcat-cluster image: tomcat ports: - containerPort: 8080 volumeMounts: - name: webapp mountPath: /usr/local/tomcat/webapps
# 进入pod查看挂载是否成功 kubectl exec -it tomcat-deploy-6dcc5c59c-hg5z7 bash
vi tomcat-service.yml 修改服务文件
apiVersion: v1 kind: Service metadata: name: tomcat-service labels: app: tomcat-service spec: # type: NodePort selector: app: tomcat-cluster ports: - port: 18010 targetPort: 8080 # nodePort: 32500
# 创建服务 kubectl create -f tomcat-service.yml # 在www-data 创建一个test目录创建文件 vi index.jsp <%=request.getLocalAddr()%> # 访问 curl http://10.97.80.216:18010/test/index.jsp
可以观察到随机负载均衡的效果。
端口转发工具 Rinetd
# 宿主机安装Rinted cd /usr/local http://www.rinetd.com/download/rinetd.tar.gz cd rinetd sed -i 's/65536/65535/g' rinetd.c mkdir -p /usr/man/ yum install -y gcc make && make install # 编写端口映射配置 vi /etc/rinetd.conf 0.0.0.0 18010 10.97.80.216 18010 # 加载配置 rinetd -c /etc/rinetd.conf # 测试外部访问,已经可以通了 http://yz10:18010/test/
k8s部署调整命令
资源限定
containers: - name: tomcat-cluster image: tomcat resources: requests: # 需要的资源 cpu: 1 memory: 500Mi limits: # 限制的资源 cpu: 2 # cpu不一定是整数 memory: 1024Mi
本文由 奔跑的杂粮煎饼 发布~