如何在kubernetes上部署consul集群
更新:HHH   时间:2023-1-7


这篇文章主要介绍“如何在kubernetes上部署consul集群”,在日常操作中,相信很多人在如何在kubernetes上部署consul集群问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”如何在kubernetes上部署consul集群”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

预览

  • consul 集群的三个节点部署方式使用  StatefulSet

  • consul集群成员之间使用TLS进行安全通信  TLS and encryption keys

预备知识

本教程利用了Kubernetes 1.7.0和更高版本的特性.

  • kubernetes  1.7.x

下客户端必须安装在本教程所使用的机器上:

  • consul  0.9.x

  • cfssl  and  cfssljson  1.2

使用

Clone this repo:

git clone https://github.com/nicklv/consul_cluster_on_kubernetes.git

进入到 consul-on-kubernetes 目录:

cd consul-on-kubernetes

生成 TLS 证书

Consul集群中成员之间的RPC通信使用TLS进行加密。通过以下命令初始化CA证书:

cfssl gencert -initca ca/ca-csr.json | cfssljson -bare ca

使用以下命令创建 TLS 证书 和 私有密钥:

cfssl gencert \  -ca=ca.pem \  -ca-key=ca-key.pem \  -config=ca/ca-config.json \  -profile=default \
  ca/consul-csr.json | cfssljson -bare consul

执行完以上命令之后,在当前目录你应该看到以下证书文件:

ca-key.pem
ca.pem
consul-key.pem
consul.pem

生成 Consul Gossip 加密密钥

Gossip communication  Consul 集群成员之间使用共享的加密密钥进行加密通信。使用以下命令生成加密密钥:

GOSSIP_ENCRYPTION_KEY=$(consul keygen)

使用以下命令生成Consul 集群使用的Secret 和 Configmap

Consul集群将通过CLI标志、TLS证书和配置文件来完成配置,这些内容通过Kubernetes的configmaps和secrets来存储。

将 gossip 加密密钥 和 TLS 证书 存储在kubernetes的 Secret中:

kubectl create secret generic consul \  --from-literal="gossip-encryption-key=${GOSSIP_ENCRYPTION_KEY}" \  --from-file=ca.pem \  --from-file=consul.pem \  --from-file=consul-key.pem

将Consul集群使用的配置文件存储在kubernetes的 ConfigMap中:

kubectl create configmap consul --from-file=configs/server.json

在创建Consul service和statefulSet之前,先创建Consul集群使用到的pv(persistVolume)持久化存储卷和pvc(persistVolumeClaim)持久化存储卷声明

kubectl create -f pvc/pvc.yaml

通过kubectl 命令创建Consul 集群服务

通过创建一个service来暴露Consul 集群功能:

kubectl create -f services/consul.yaml

创建 Consul 集群 StatefulSet

通过部署StatefulSet(有状态副本集)来启动Consul集群的3个实例节点:

kubectl create -f statefulsets/consul.yaml

所有的Consul节点都会被创建,在进入下一步操作之前,先验证所有的节点都处在正常的 Running 状态,执行以下命令可以看到如下结果:

kubectl get pods
NAME       READY     STATUS    RESTARTS   AGE
consul-0   1/1       Running   0          50sconsul-1   1/1       Running   0          29sconsul-2   1/1       Running   0          15s

核实节点状态

在这个环节,Consule 集群的所有节点都已经启动。为了确定每个节点都已经正常的工作,可以通过查看日志的命令,查看每个集群的成员状态。

kubectl logs consul-0

(这一步可不执行)可以使用Consul CLI检查consul集群的健康状态,可以在新的命令窗口使用port-forward模式来通过IP访问,在本教程的中我们的测试环境申请了域名,通过花生壳支持外网访问。

kubectl port-forward consul-0 8400:8400
Forwarding from 127.0.0.1:8400 -> 8400Forwarding from [::1]:8400 -> 8400

(如果不执行上一步命令,可以通过以下命令进入到consul-0 pod,kubectl exec -it consul-0 /bin/sh) 执行consul members命令查看consul集群所有节点的状态。

consul members
Node      Address           Status  Type    Build  Protocol  DC
consul-0  10.244.2.197:8301  alive   server  0.9.1  2        dc1
consul-1  10.244.1.231:8301  alive   server  0.9.1  2        dc1
consul-2  10.244.2.198:8301  alive   server  0.9.1  2        dc1

访问consul 集群Web UI

目前Consul集群的UI站点不支持权限验证,所以为了安全起见不建议在生产环境把Web UI访问暴露到外网。访问Web-UI有两种访问方式:

  1. 通过port-forward把consul-0节点的8500端口暴露出来,这种方式类似nodeport模式,所有访问consul-0节点所在服务器8500端口的流量都被转发到consul-0。弊端,节点重启之后所在服务器节点发生变化的话访问IP也跟着变化。建议在实验环境使用这种模式。

    kubectl port-forward consul-0 8500:8500
    执行以上命令之后,通过URL地址 http://127.0.0.1:8500访问consul集群web管理界面。
  2. 通过Ingress暴露外网访问,我们配置了一个 consul.xxxx.cn 的域名,暴露到了外网。这种模式,外网可以无限制进行consul集群web管理界面访问,所以建议在开发或者测试环境使用,不要在生产环境使用该模式。

清理

运行cleanup脚本,会自动清除掉所有正在运行的consul相关的kubernetes资源。备注:根据实际情况调整下 cleanup脚本。

bash cleanup

到此,关于“如何在kubernetes上部署consul集群”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注天达云网站,小编会继续努力为大家带来更多实用的文章!

返回云计算教程...