快速部署k8s集群
本文使用kubeadm方式来快速部署k8s集群,操作系统基于ubuntu操作系统
基础配置
IP网段规划
192.168.50.31 master节点
192.168.50.32 node01节点
192.168.50.33 node02节点
操作系统版本
- Ubuntu 22.04 LTS amd64版本
环境准备
增加hosts解析记录
分别3台机器配置hosts解析记录
在所有机器的/etc/hosts文件中增加解析
192.168.50.31 master01.k8s.com 192.168.50.31 node01.k8s.com 192.168.50.32 node02.k8s.com
配置主机名
- master01机器配置(192.168.50.31)
1 ~$ hostnamectl set-hostname master01.k8s.com
- node01机器配置(192.168.50.31)
1 ~$ hostnamectl set-hostname node01.k8s.com
- node02机器配置(192.168.50.32)
1 ~$ hostnamectl set-hostname node02.k8s.com
禁止所有机器的防火墙
~$ systemctl disable --now ufw.service
所有机器启用IPV4内核转发模块
~$ modprobe br_netfilter
所有机器配置ulimit参数
~$ ulimit -SHn 65535
永久配置
~$ cat /etc/security/limits.conf soft nofile 65535 hard nofile 65535 soft nproc 65535 hard nproc 65535
所有机器内核参数配置
~$ cat /etc/sysctl.d/k8s.conf net.ipv4.ip_forward = 1 net.bridge.bridge-nf-call-iptables = 1 net.bridge.bridge-nf-call-ip6tables = 1 fs.may_detach_mounts = 1 vm.overcommit_memory=1 vm.panic_on_oom=0 fs.inotify.max_user_watches=89100 fs.file-max=52706963 fs.nr_open=52706963 net.netfilter.nf_conntrack_max=2310720 net.ipv4.tcp_keepalive_time = 300 net.ipv4.tcp_keepalive_probes = 3 net.ipv4.tcp_keepalive_intvl = 15 net.ipv4.tcp_max_tw_buckets = 36000 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_max_orphans = 327680 net.ipv4.tcp_orphan_retries = 3 net.ipv4.tcp_syncookies = 1 net.ipv4.tcp_max_syn_backlog = 16384 net.ipv4.ip_conntrack_max=655535 net.ipv4.tcp_timestamps = 0 net.core.somaxconn = 16384 ~$ sysctl --system
所有机器IPVS模块安装
~$ modprobe -- ip_vs ~$ modprobe -- ip_vs_rr ~$ modprobe -- ip_vs_wrr ~$ modprobe -- ip_vs_sh ~$ modprobe -- nf_conntrack ~$ cat /etc/modules-load.d/ipvs.conf ip_vs ip_vs_lc ip_vs_wlc ip_vs_rr ip_vs_wrr ip_vs_lblc ip_vs_lblcr ip_vs_dh ip_vs_sh ip_vs_fo ip_vs_nq ip_vs_sed ip_vs_ftp ip_vs_sh nf_conntrack ip_tables ip_set xt_set ipt_set ipt_rpfilter ipt_REJECT ipip
所有机器检查模块是否加载
~$ lsmod |grep -e ip_vs -e nf_conntrack ~$ apt install ipset # 安装ipset, ipvsadm 管理工具
所有机器同步服务器时间
~$ ln -sf /usr/share/zoneinfo/Asia/Shanghai /etc/localtime # 配置时区 ~$ ntpdate time.windows.com
所有机器关闭swap
~$ swapoff -a ~$ cat /etc/fstab # 注释swap分区 #/swap.img none swap sw 0 0
容器运行时安装
所有机器依赖包安装
~$ apt-get install -y libseccomp2
所有机器containerd下载部署
~$ wget https://github.com/containerd/containerd/releases/download/v1.6.18/cri-containerd-cni-1.6.18-linux-amd64.tar.gz ~$ tar -tf cri-containerd-cni-1.6.18-linux-amd64.tar.gz # 查看压缩包包含哪些文件 ~$ tar zxf cri-containerd-cni-1.6.18-linux-amd64.tar.gz -C / # 解压包到跟路径 ~$ export PATH=$PATH:/opt/cin/bin # 增加环境变量
所有机器配置文件生成
~$ mkdir -p /etc/containerd ~$ containerd config default > /etc/containerd/config.toml
所有机器修改配置文件
配置文件路径/etc/containerd/config.toml
root = "/var/lib/containerd" # 保存持久化数据目录 .... sandbox_image = "registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.6" .... [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options] .... SystemdCgroup = true .... [plugins."io.containerd.grpc.v1.cri".registry] # 镜像加速配置 .... [plugins."io.containerd.grpc.v1.cri".registry.mirrors] [plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"] endpoint = ["https://bqr1dr1n.mirror.aliyuncs.com"] [plugins."io.containerd.grpc.v1.cri".registry.mirrors."k8s.gcr.io"] endpoint = ["https://registry.aliyuncs.com/k8sxio"]
所有机器启动containerd服务
~$ systemctl enable --now containerd
开始集群安装
所有机器kubeadm安装
apt-get update && apt-get install -y apt-transport-https curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add - cat </etc/apt/sources.list.d/kubernetes.list deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main EOF apt-get update apt-get install -y kubelet=1.23.13-00 kubeadm=1.23.13-00 kubectl=1.23.13-00 sudo apt-mark hold kubelet=1.23.13-00 kubeadm=1.23.13-00 kubectl=1.23.13-00 # 锁定版本
所有机启动kubelet服务
~$ systemctl enable --now kubelet
master节点初始化集群配置文件
~$ kubeadm config print init-defaults --component-configs KubeletConfiguration >/root/kubeadm.yaml
master节点修改配置文件
配置文件路径 /root/kubeadm.yaml
..... kind: InitConfiguration localAPIEndpoint: advertiseAddress: 192.168.50.31 # 替换成master地址 bindPort: 6443 nodeRegistration: criSocket: /run/containerd/containerd.sock # 修改为containerd的sock文件 imagePullPolicy: IfNotPresent name: master01.k8s.com # 注册的master名称 taints: # 污点防止调度到master节点 - effect: "NoSchedule" key: "node-role.kubernetes.io/master" --- apiVersion: kubeproxy.config.k8s.io/v1alpha1 # 增加kube-proxy模式配置 kind: KubeProxyConfiguration mode: ipvs # kube-proxy 模式 .... imageRepository: registry.aliyuncs.com/k8sxio # 修改镜像获取地址为国内地址 kind: ClusterConfiguration kubernetesVersion: 1.23.13 # 获取k8s版本 networking: dnsDomain: cluster.local serviceSubnet: 10.96.0.0/12 podSubnet: 10.244.0.0/16 # 指定pod子网 ....
初始化master节点
# 获取镜像 ~$ kubeadm config images pull --config /root/kubeadm.yaml # 手动拉取coredns镜像,阿里云没有这个镜像 ~$ ctr -n k8s.io image pull docker.io/coredns/coredns:1.8.6 ~$ ctr -n k8s.io image tag docker.io/coredns/coredns:1.8.6 registry.aliyuncs.com/k8sxio/coredns:v1.8.6 # 初始化master节点, 根据提示可加入node节点 ~$ kubeadm init -v 5 --config /root/kubeadm.yaml
初始化master节点后,根据kubeadm join提示来完成node节点的加入 如果忘记join节点token可以通过命令重新获取新的tokenkubeadm token create --print-join-command
网络插件安装
calico文件下载github地址
~$ kubectl apply -f calico.yaml # 移除containerd的网络配置,放置影响pod分配的IP地址 ~$ mv /etc/cni/net.d/10-containerd-net.conflist /etc/cni/net.d/10-containerd-net.conflist.old
清理集群
执行kubeadm rest
以后需要在对应的节点执行清理,次命令可以在所有节点执行
~$ kubeadm rest ~$ ifconfig cni0 down && ip link delete cni0 ~$ rm -rf /var/lib/cni/
评论