可以发现,如果复制过程中出现了问题那么就可能会造成间歇性pull镜像失败。
真正推荐的做法是共享后端存储,将harbor实例做成无状态的:
由于我们刚起步,还没有搭建分布式存储系统,后面当搭建了Ceph集群后会转成这种模式。
如果大家现状允许可以直接采用共享存储的方式搭建harbor。
高可用验证至此生产可用的k8s集群已“搭建完成”。为什么打引号?因为我们还没有进行测试和验证,下面给出我们列出的上线前的验证清单。
其中harbor由于我们采用的是双主,所以目前还标记为警告状态。
还有涉及的BGP相关的验证不在此次文章内容中,后续会为大家说明。
写在最后还有一点需要注意的是物理机的可用性,如果这些虚拟机全部在一台物理机上那么还是存在“单点问题”。这边建议至少3台物理机以上。
为什么需要3台物理机以上?
主要是考虑到了etcd的问题,如果只有两台物理机部署了5个etcd节点,那么部署了3个etcd的那台物理机故障了,则不满足etcd失败容忍度而导致etcd集群宕机,从而导致k8s集群宕机。