k8s系列10-使用kube-router和cilium部署BGP模式的k8s集群

本文只做部分摘录,本文作者:@tinychen,原文首发于:https://tinychen.com/20221209-k8s-10-deploy-ha-k8s-with-cilium-bgp/。文末结尾处将有跳转到作者首发链接以备查阅。

本文主要在centos7系统上基于containerd和stable版本(1.12.4)的cilium组件部署v1.25.4版本的堆叠ETCD高可用k8s原生集群,在LoadBalancer上选择了PureLB和kube-router结合cilium实现BGP路由可达的K8S集群部署。

此前写的一些关于k8s基础知识和集群搭建的一些方案,有需要的同学可以看一下。

ced49c8259213041

1、准备工作

1.1 集群信息

机器均为16C16G的虚拟机,硬盘为100G。

IP Hostname

10.31.80.0 k8s-cilium-apiserver.tinychen.io

10.31.80.1 k8s-cilium-master-10-31-80-1.tinychen.io

10.31.80.2 k8s-cilium-master-10-31-80-2.tinychen.io

10.31.80.3 k8s-cilium-master-10-31-80-3.tinychen.io

10.31.80.4 k8s-cilium-worker-10-31-80-4.tinychen.io

10.31.80.5 k8s-cilium-worker-10-31-80-5.tinychen.io

10.31.80.6 k8s-cilium-worker-10-31-80-6.tinychen.io

10.32.0.0/17 podSubnet

10.32.128.0/18 serviceSubnet

10.32.192.0/18 LoadBalancerSubnet

1.2 检查mac和product_uuid

同一个k8s集群内的所有节点需要确保mac地址和product_uuid均唯一,开始集群初始化之前需要检查相关信息

# 检查mac地址

ip link 

ifconfig -a

# 检查product_uuid

sudo cat /sys/class/dmi/id/product_uuid

1.3 配置ssh免密登录(可选)

如果k8s集群的节点有多个网卡,确保每个节点能通过正确的网卡互联访问

原文链接:https://tinychen.com/20221209-k8s-10-deploy-ha-k8s-with-cilium-bgp/

© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享