我选择了附加到每个主机的NVMe磁盘作为存储选项。你可以根据你的存储配置进行修改。
K3s最重要的前提条件之一是支持CSI,所以请确保你在最后一步选择了Enable CSI选项。
复制规范并将其应用到你的集群中
几分钟内,在K3s上的Portworx集群将会启动并运行:
kubectl get pods -l name=portworx -n kube-systemCSI驱动作为一个sidecar连接到DaemonSet中的每一个Pod,这就是为什么我们在Pod中看到两个容器。
SSH进入其中一个节点,用下面的命令检查Portworx集群状态。
sudo /opt/pwx/bin/pxctl status我们现在已经拥有了一个基于K3s、Calico和Portworx的边缘基础设施,并且配置完整。在下一篇文章中,我们将部署一个运行在边缘的AIoT工作负载。保持关注哟
原文链接:
https://thenewstack.io/tutorial-configure-cloud-native-edge-infrastructure-with-k3s-calico-portworx/