RKE部署HA集群的高可用问题

参照下述文档,通过RKE部署四层负载均衡的HA集群,似乎没有实现高可用。

https://www.rancher.cn/docs/rancher/v2.x/cn/installation/ha-install/helm-rancher/tcp-l4/


(1) 3个master关掉其中2个后,从浏览器和kubectl 都无法访问集群。关掉1个master,可以正常访问集群。


(2).kube/config 中只指定了一个master的IP,如果这个master出现故障,那么必须修改 .kube/config中的IP。三个master之前有一个nginx负载均衡器,可否在.kube/config中使用负载均衡器的IP ?


(3)master同时是worker,在生产环境应该不推荐这种做法。如果master不是worker,那么rancher/rancher对应的三个容器会分布到其他worker,那么从master前面的负载均衡器IP无法访问Rancher的web UI。

已邀请:

hongxiaolu

赞同来自: wertyou

2. 在RKE配置中,在authentication中添加VIP IP,然后构建集群,等集群构建完成后,把.kube/config中的IP改为VIP地址。

https://docs.rancher.cn/rke/config-options/authentication.html


3. 负载均衡器修改后端的IP就行了

第一个问题解决了。

etcd三节点集群,如果2个故障,整个集群不可用。kube-apiserver三节点集群,如果2个故障,整个集群还是可用。

我的集群是,每个节点上都有etcd和kube-apiserver。我把其中三节点中的2个断网,虽然kube-apiserver允许2个故障,但是etcd不允许2个故障。所以,整个集群不可访问了。

etcd三节点集群本来就只支持最多1台宕机

要回复问题请先登录注册