在K8s集群中的HA

huangapple go评论45阅读模式
英文:

HA in k8s cluster

问题

可行集群在节点恢复后

如果要将集群返回到可用状态,需要考虑以下情况:当第一个节点宕机时,可以切换 IP 目标并继续运行,但当第二个节点宕机并且集群进入不可用状态时,需要采取一些措施才能使集群再次处于可用状态。这可能取决于您的 HA(高可用性)配置和集群软件的具体设置。

在某些情况下,您可能需要手动进行一些修复操作,如重新平衡集群或修复配置。此外,您需要确保节点的状态已恢复正常,可能需要解决一些故障排除问题。

总的来说,返回集群到可用状态是可能的,但具体操作可能因您的环境和软件配置而异。您可能需要查阅相关的文档或与您的 HA 配置相关的支持团队合作,以确保集群在节点宕机后能够正确地恢复到可用状态。

英文:

let's imagine situation - I have HA cluster with 3 Control plane node, with CP endpoint floating ip adress. First node down - ok, no problem, switch ip dest and go on. Second node down, and cluster goes to unavailiable state. So sad

Question - is possible return cluster in avaliable state, after falled nodes will be up?
Because my previous expiriense said no

Thanks

Avaliable cluster after nodes up

答案1

得分: 0

如果您使用托管的 Kubernetes 集群,您无需担心此问题,但如果您正在运行自己的主节点,甚至无需担心浮动 IP。您只需启动新的主节点并将它们加入现有的主节点,您的系统就能够重新达到强大的状态。

英文:

If you use a managed kubernetes cluster you don't have to worry about this, but if you're running your own masters you don't even need to worry about the floating IP. You just bring up new masters and join them to the existing master(s) and you're back up to fighting strength.

答案2

得分: 0

是的。

可以从1、2或所有3个主节点故障中恢复。
启动它们。
确保etcd集群重新启动,或解决可能存在的问题(磁盘已满、证书已过期等)。
然后确保kube-apiserver重新启动。接下来是kube-controller-manager和kube-scheduler。
此时,您的kubelets应该已经重新注册,工作负载正在重新启动。

英文:

Yes.

It is possible to recover from 1, 2 or all 3 masters down.
Boot them.
Make sure etcd cluster gets back up, or fix whatever issue there could be (disk full, expired certs, ...)
Then make sure kube-apiserver gets back up. Next kube-controller-manager & kube-scheduler.
At which point, your kubelets should already be re-registering and workloads starting back up.

huangapple
  • 本文由 发表于 2023年2月10日 04:57:55
  • 转载请务必保留本文链接:https://go.coder-hub.com/75404347.html
匿名

发表评论

匿名网友

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

确定