RKE部署HA集群的高可用问题
参照下述文档,通过RKE部署四层负载均衡的HA集群,似乎没有实现高可用。
https://www.rancher.cn/docs/rancher/v2.x/cn/installation/ha-install/helm-rancher/tcp-l4/
(1) 3个master关掉其中2个后,从浏览器和kubectl 都无法访问集群。关掉1个master,可以正常访问集群。
(2).kube/config 中只指定了一个master的IP,如果这个master出现故障,那么必须修改 .kube/config中的IP。三个master之前有一个nginx负载均衡器,可否在.kube/config中使用负载均衡器的IP ?
(3)master同时是worker,在生产环境应该不推荐这种做法。如果master不是worker,那么rancher/rancher对应的三个容器会分布到其他worker,那么从master前面的负载均衡器IP无法访问Rancher的web UI。
没有找到相关结果
已邀请:
3 个回复
hongxiaolu
赞同来自: wertyou
2. 在RKE配置中,在authentication中添加VIP IP,然后构建集群,等集群构建完成后,把.kube/config中的IP改为VIP地址。
https://docs.rancher.cn/rke/config-options/authentication.html
3. 负载均衡器修改后端的IP就行了
wertyou
第一个问题解决了。
etcd三节点集群,如果2个故障,整个集群不可用。kube-apiserver三节点集群,如果2个故障,整个集群还是可用。
我的集群是,每个节点上都有etcd和kube-apiserver。我把其中三节点中的2个断网,虽然kube-apiserver允许2个故障,但是etcd不允许2个故障。所以,整个集群不可访问了。
bobo_zheng
etcd三节点集群本来就只支持最多1台宕机