服务器名称 | IP地址 | 安装的软件 |
代码托管服务器 | 192.168.10.10 | Gitlab |
持续集成服务器 | 192.168.10.20 | Jenkins,Maven,Docker18.06.1-ce |
slave | 192.168.10.110 |
Jenkins的Master-Slave分布式构建,就是通过将构建过程分配到从属Slave节点上,从而减轻Master节 点的压力,而且可以同时构建多个,有点类似负载均衡的概念。
Manage Jenkins --> Configure Global Security --> 随机选取
Manage Jenkins --> Manage Node --> 新建节点
这个下载的 jar 包需要传递到从节点服务器上
从节点 slave(192.168.10.110)服务器上操作
关闭防火墙
从节点 slave 安装 git 环境
yum install git -y
执行安装成功后,执行上述提示的指令
java -jar agent.jar -jnlpUrl http://192.168.10.20:8888/computer/slave1/jenkins-agent.jnlp -secret 8ff8ad31b86e893521b60a4f03ab340186d4e31ed7cde59e417471ca0f1d9ed1 -workDir "/root/jenkins"
回到主节点查看状态
新建 item
直接构建
在 slave1 服务器 /root/jenkins上查看项目代码拉取
创建项目前先连接主节点
新建 item
--> 点击 流水线语法(在最底部)--> 配置 --> 生成流水线(在底部)
node('slave1') { //拉取代码 stage('pull code') { checkout([$class: 'GitSCM', branches: [[name: '*/master']], extensions: [], userRemoteConfigs: [[credentialsId: '015f1ee4-73cf-4d51-95b0-2954fc32aadb', url: 'git@192.168.10.10:xxx_group/tensquare_back.git']]]) } }
直接构建
在 slave1 服务器 /root/jenkins上查看项目代码拉取
以上种种问题,我们可以引入Kubernates来解决!
Kubernetes(简称,K8S)是Google开源的容器集群管理系统,在Docker技术的基础上,为容器化的 应用提供部署运行、资源调度、服务发现和动态伸缩等一系列完整功能,提高了大规模容器集群管理的 便捷性。 其主要功能如下:
大致工作流程:
手动/自动构建 --> Jenkins 调度 K8S API -->动态生成 Jenkins Slave pod --> Slave pod 拉取 Git 代码/编译/打包镜像 -->推送到镜像仓库 Harbor --> Slave 工作完成,Pod 自动销毁 -->部署到测试或生产 Kubernetes平台。(完全自动化,无需人工干预)
当 Jenkins Master 出现故障时,Kubernetes 会自动创建一个新的 Jenkins Master 容器,并且将 Volume 分配给新创建的容器,保证数据不丢失,从而达到集群服务高可用。
每次运行 Job 时,会自动创建一个 Jenkins Slave,Job 完成后,Slave 自动注销并删除容器,资源自动释放,而且 Kubernetes 会根据每个资源的使用情况,动态分配Slave 到空闲的节点上创建,降低出现因某节点资源利用率高,还排队等待在该节点的情况。
当 Kubernetes 集群的资源严重不足而导致 Job 排队等待时,可以很容易的添加一个Kubernetes Node 到集群中,从而实现扩展。
用于暴露Kubernetes API,任何资源的请求的调用操作都是通过kube-apiserver提供的接口进行的。
是Kubernetes提供默认的存储系统,保存所有集群数据,使用时需要为etcd数据提供备份计划。
作为集群内部的管理控制中心,负责集群内的Node、Pod副本、服务端点(Endpoint)、命名空间(Namespace)、服务账号(ServiceAccount)、资源定额(ResourceQuota)的管理,当某个Node意外宕机时,Controller Manager会及时发现并执行自动化修复流程,确保集群始终处于预期的工作状态。
监视新创建没有分配到Node的Pod,为Pod选择一个Node。
负责维护容器的生命周期,同时负责Volume和网络的管理。
是Kubernetes的核心组件,部署在每个Node节点上,它是实现Kubernetes Service的通信与负载均衡机制的重要组件。
主机名称 |
IP地址 |
安装的软件 |
代码托管服务器 |
192.168.10.10 |
Gitlab-12.4.2 |
Harbor仓库服务器 |
192.168.10.60 |
Harbor1.9.2 |
k8s-master |
192.168.10.90 |
kube-apiserver、kube-controller-manager、kube- scheduler、docker、etcd、calico,NFS |
k8s-node1 |
192.168.10.100 |
kubelet、kubeproxy、Docker18.06.1-ce |
k8s-node2 |
192.168.10.110 |
kubelet、kubeproxy、Docker18.06.1-ce |
关闭防火墙和关闭SELinux
systemctl stop firewalld systemctl disable firewalld setenforce 0 临时关闭 vi /etc/sysconfig/selinux 永久关闭 改为SELINUX=disabled
安装 docker 环境
//安装必要的软件包 yum install -y yum-utils device-mapper-persistent-data lvm2 //设置下载的镜像仓库 yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo yum install -y docker-ce systemctl stop firewalld.service systemctl disable firewalld.service setenforce 0 systemctl start docker docker -v sudo systemctl enable docker //添加阿里云镜像下载地址 镜像加速器: sudo tee /etc/docker/daemon.json <<-'EOF' { "registry-mirrors": ["https://31ycpc34.mirror.aliyuncs.com"] } EOF sudo systemctl daemon-reload sudo systemctl restart docker vim /etc/sysctl.conf net.ipv4.ip_forward=1 #添加进去 sysctl -p #立即生效 service network restart systemctl restart docker
修改3台服务器的 hostname 及 hosts 文件
hostnamectl set-hostname k8s-master hostnamectl set-hostname k8s-node1 hostnamectl set-hostname k8s-node2
vim /etc/hosts 192.168.10.90 k8s-master 192.168.10.100 k8s-node1 192.168.10.110 k8s-node #互相 ping 一下,确保互通 ping k8s-node
设置系统参数,加载 br_netfilter 模块
modprobe br_netfilter
设置允许路由转发,不对bridge的数据进行处理创建文件
net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 net.ipv4.ip_forward = 1 vm.swappiness = 0
执行文件
sysctl -p /etc/sysctl.d/k8s.conf
kube-proxy 开启 ipvs 的前置条件
cat > /etc/sysconfig/modules/ipvs.modules <<EOF #!/bin/bash modprobe -- ip_vs modprobe -- ip_vs_rr modprobe -- ip_vs_wrr modprobe -- ip_vs_sh modprobe -- nf_conntrack_ipv4 EOF
#给执行权限 chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4
所有节关闭 swap
#临时关闭 swapoff -a #永久关闭,注释掉以下字段 vim /etc/fstab #/dev/mapper/cl-swap swap swap defaults 0 0
安装 kubelet、kubeadm、kubectl
清空yum缓存
yum clean all
设置 yum 安装源
cat <<EOF > /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/ enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF
安装 kubelet、kubeadm、kubectl
yum install -y kubelet-1.17.0 kubeadm-1.17.0 kubectl-1.17.0
kubelet 设置开机自启动(注意:先不启动,现在启动的话会报错)
systemctl enable kubelet
查看版本
kubelet --version
kubeadm init --kubernetes-version=1.17.0 \ --apiserver-advertise-address=192.168.10.90 \ --image-repository registry.aliyuncs.com/google_containers \ --service-cidr=10.1.0.0/16 \ --pod-network-cidr=10.244.0.0/16
注意:apiserver-advertise-address这个地址必须是master机器的IP
常见错误:
[WARNING IsDockerSystemdCheck]: detected "cgroupfs" as the Docker cgroup driver
作为Docker cgroup驱动程序。,Kubernetes推荐的Docker驱动程序是“systemd”
修改Docker的配置: vim /etc/docker/daemon.json,加入
{ "exec-opts":["native.cgroupdriver=systemd"] }
然后重启 Docker
[ERROR NumCPU]: the number of available CPUs 1 is less than the required 2
修改虚拟机的CPU的个数,至少为2个
最后,会提示节点安装的命令,必须记下来
kubeadm join 192.168.10.90:6443 --token 5ire0v.3q74rpx1xf55r2wk \ --discovery-token-ca-cert-hash sha256:9b466096f1389ef2175ef5c5a07291fbbbd925ae41cde0a2bc96f0fef02e8161
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
systemctl restart kubelet systemctl status kubele
mkdir k8s cd k8s //不检查凭证下载calico.yaml wget --no-check-certificate https://docs.projectcalico.org/v3.10/getting-started/kubernetes/installation/hosted/kubernetes-datastore/calico-networking/1.7/calico.yaml //地址更改,方便从节点通信 sed -i 's/192.168.0.0/10.244.0.0/g' calico.yaml kubectl apply -f calico.yaml
kubectl get pod --all-namespaces -o wide
两个节点都执行之前 Master 节点产生的命令加入集群
kubeadm join 192.168.10.90:6443 --token 5ire0v.3q74rpx1xf55r2wk \ --discovery-token-ca-cert-hash sha256:9b466096f1389ef2175ef5c5a07291fbbbd925ae41cde0a2bc96f0fef02e8161
systemctl start kubelet systemctl status kubele
kubectl get nodes
kubectl get nodes #查看所有主从节点的状态 kubectl get ns #获取所有namespace资源 kubectl get pods -n {$nameSpace} #获取指定namespace的pod kubectl describe pod的名称 -n {$nameSpace} #查看某个pod的执行过程 kubectl logs --tail=1000 pod的名称 | less #查看日志 kubectl create -f xxx.yml #通过配置文件创建一个集群资源对象 kubectl delete -f xxx.yml #通过配置文件删除一个集群资源对象