ack集群Terway网络场景下的vSwitch扩容
目录
1、Terway 网络介绍
2、问题现象
3、扩容操作
3.1 新增交换机并配置 NAT
3.2 配置集群的 Terway
3.3 重启 terway
1、Terway 网络介绍
Terway
是阿里云开源的基于专有网络 VPC 的容器网络接口CNI
(Container Network Interface)插件,支持基于Kubernetes
标准的网络策略来定义容器间的访问策略。可以通过使用Terway
网络插件实现Kubernetes
集群内部的网络互通
Terway
网络插件将原生的弹性网卡分配给Pod
实现Pod
网络,支持基于Kubernetes
标准的网络策略(Network Policy)来定义容器间的访问策略,并兼容Calico
的网络策略
在Terway
网络插件中,每个Pod
都拥有自己网络栈和IP
地址。同一台ECS
内的Pod
之间通信,直接通过机器内部的转发,跨ECS
的Pod
通信,报文通过VPC
的弹性网卡直接转发。由于不需要使用VxLAN
等的隧道技术封装报文,因此Terway
模式网络具有较高的通信性能
一句话总结,Terway
最大的特点就是借助于云上ECS
服务器的特性,将pod
与node
的网络进行了拉平,同时使用VPC
下vSwitch
中的ip
2、问题现象
由于使用了Terway
网络模式,随着node
机器和pod
数量的增多,每分配一个ip
出去都需要消耗掉vpc
下vsw
的可用ip
。如果某短时间业务快速增长,导致pod
大量消耗可用ip
,这个时候就有可能因前期规划不充足导致vSwitch
的可用ip
不足
这个时候新创建的pod
状态为ContainerCreating
,describe
查看pod
提示error allocate ip...
,这个时候查看Pod
所在节点的Terway
的日志,会有下面内容
Message: The specified VSwitch "vsw-xxxxx" has not enough IpAddress.
提示没有足够的ip
,这个时候基本都是由于交换机的ip
不够用,登录到交换机的控制台可以查看到这个节点所在的交换机的可用ip
数,如果很少甚至为0
,就表示需要扩容了
3、扩容操作
3.1 新增交换机并配置 NAT
在专有网络管理控制台对应的VPC
创建新的vSwitch
,该vSwitch
必须与IP
资源不足的vSwitch
在同一个区域。这是因为Terway
分配给pod ip
时的策略是,分配node
所在可用区中的vSwitch
对应的ip
,因此,扩容就需要扩容同一可用区的交换机
在初始化集群新建交换机以及扩容交换机的时候都应该考虑,因Pod
密度越来越大,为了满足Pod
对IP
地址日益增长的需求,建议创建给Pod
使用的vSwitch
的网络位小于等于19
,即每个网段中至少包含8192
个可用IP
地址
vSwitch
创建完成后,需要对这个vSwitch
配置NAT
策略,以便访问外部网络
3.2 配置集群的 Terway
配置集群的Terway
,添加上面创建的vSwitch
到Terway
的ConfigMap
配置中
kubectl -n kube-system edit cm eni-config
配置样例参考Terway 配置参考[1],部分内容说明如下
apiVersion: v1
kind: ConfigMap
metadata:
name: eni-config
namespace: kube-system
data:
10-terway.conf: |-
{
"cniVersion": "0.3.0",
"name": "terway",
"type": "terway"
}
disable_network_policy: "true"
eni_conf: |-
{
"version": "1", # 版本
"max_pool_size": 80, # 资源池最大水位
"min_pool_size": 20, # 资源池最小水位
"credential_path": "/var/addon/token-config",
"vswitches": {"cn-shanghai-f":["vsw-AAA", "vsw-BBB"]}, # 关联的虚拟交换机(ENI多IP模式),添加vsw-BBB到VSwitches部分,其中vsw-AAA是已经存在的且IP资源不足的VSwitch
"eni_tags": {"ack.aliyun.com":"xxxxxxxxx"},
"service_cidr": "172.16.0.0/16", # 服务CIDR
"security_group": "sg-xxxxxxx", # 安全组ID
"vswitch_selection_policy": "ordered"
}
上面配置参数中,资源池水位的配置值。Terway
使用底层虚拟化底层的网络资源打通容器网络,网络资源的创建和释放需要一系列的API
调用,如果在Pod
创建销毁时频繁调用API
会导致Pod
配置时间较长。Terway
通过池化的方式对资源进行缓存,当小于资源的池的最小水位时自动补充资源,在大于资源池最大水位时开始释放资源,这样保障了高效的资源利用和分配的效率
相当于预先分配了ip
,具体设置可以考虑到所在机器节点规格支持的最大eni
辅助网卡个数以及最大pod
数灵活设置
3.3 重启 terway
重启所有Terway
的pod
以便快速刷新缓存生效
# kubectl -n kube-system delete pod -l app=terway-eniip
# kubectl -n kube-system get pod | grep terway
重启后检查异常的pod
是否正常获取了ip
即可
当排查某个pod
的ip
分配相关问题时,也可以通过进入到所在节点的terway pod
中,执行命令行,查看当前已分配的 ip 情况,以及已经从vSwitch
分配得来后,暂时空闲的ip
情况
# terway-cli mapping
Status | Pod Name | Res ID | Factory Res ID
Normal | node-problem-detector-l5h52 | 00:16:10:48:3e:37.10.244.18.167 | 00:16:10:48:3e:37.10.244.18.167
...
Idle | | 00:16:10:48:3e:37.10.244.18.132 | 00:16:10:48:3e:37.10.244.18.132
Idle | | 00:16:10:48:3e:37.10.244.18.18 | 00:16:10:48:3e:37.10.244.18.18
Idle | | 00:16:10:48:3e:37.10.244.18.54 | 00:16:10:48:3e:37.10.244.18.54
See you ~
欢迎进群一起进行技术交流
加群方式:公众号消息私信“加群”或加我好友再加群均可
参考资料
Terway 配置参考: https://github.com/AliyunContainerService/terway/blob/main/docs/dynamic-config.md