网格扩展
本指南提供了将 VM 和裸机主机集成到 Kubernetes 上部署的 Istio 网格中的说明。
先决条件
已经在 Kubernetes 上建立了 Istio。如果还没有这样做,可以在安装指南中找到方法。
待接入服务器必须能够通过 IP 接入网格中的服务端点。通常这需要 VPN 或者 VPC 的支持,或者容器网络为服务端点提供直接路由(非 NAT 或者防火墙屏蔽)。该服务器无需访问 Kubernetes 指派的集群 IP 地址。
Istio 控制平面服务(Pilot、Mixer、Citadel)以及 Kubernetes 的 DNS 服务器必须能够从虚拟机进行访问,通常会使用内部负载均衡器(也可以使用
NodePort
)来满足这一要求,在虚拟机上运行 Istio 组件,或者使用自定义网络配置,相关的高级配置另有文档描述。如果您在使用 Helm 安装时尚未启用网格扩展。您需要 Helm 客户端来为集群启用网格扩展。
以下说明: - 假设扩展 VM 在 GCE 上运行。 - 某些步骤使用特定于 Google 平台的命令。
安装步骤
安装过程包含服务网格的扩展准备、扩展安装以及虚拟机的配置过程。
扩展准备工作:设置 Kubernetes
将非 Kubernetes 服务添加到 Istio 网格的第一步是安装配置 Istio,并生成允许网格扩展 VM 连接到网格的配置文件。要准备集群以进行网格扩展,请在具有集群管理员权限的计算机上运行以下命令:
确保为集群启用了网格扩展。如果在安装时没有使用 Helm 指定
--set global.meshExpansion.enabled=true
,则有两个选项可用于启用网格扩展,具体取决于您最初在集群上安装 Istio 的方式:- 如果您使用 Helm 和 Tiller 安装了 Istio,请使用新选项运行
helm upgrade
:
$ cd install/kubernetes/helm/istio $ helm upgrade --set global.meshExpansion.enabled=true istio-system . $ cd -
- 如果您没有使用 Helm 和 Tiller 安装 Istio,请使用
helm template
通过该选项更新您的配置并使用kubectl
重新应用配置:
$ kubectl create namespace istio-system $ helm template install/kubernetes/helm/istio-init --name istio-init --namespace istio-system | kubectl apply -f - $ cd install/kubernetes/helm/istio $ helm template --set global.meshExpansion.enabled=true --namespace istio-system . > istio.yaml $ kubectl apply -f istio.yaml $ cd -
- 如果您使用 Helm 和 Tiller 安装了 Istio,请使用新选项运行
定义 VM 加入的命名空间。此示例使用
SERVICE_NAMESPACE
环境变量来存储命名空间。此变量的值必须与稍后在配置文件中使用的命名空间匹配。$ export SERVICE_NAMESPACE="default"
找到 Istio ingress 网关的 IP 地址,因为网格扩展机器将访问 Citadel 和 Pilot。
$ export GWIP=$(kubectl get -n istio-system service istio-ingressgateway -o jsonpath='{.status.loadBalancer.ingress[0].ip}') $ echo $GWIP 35.232.112.158
生成
cluster.env
配置以在 VM 中部署。此文件包含 Kubernetes 集群 IP 地址范围 通过 envoy 拦截和重定向。将 Kubernetes 安装为servicesIpv4Cidr
时指定 CIDR 范围。 使用适当的值替换以下示例命令中的$MY_ZONE
和$MY_PROJECT
以获取 CIDR 安装后:$ ISTIO_SERVICE_CIDR=$(gcloud container clusters describe $K8S_CLUSTER --zone $MY_ZONE --project $MY_PROJECT --format "value(servicesIpv4Cidr)") $ echo -e "ISTIO_CP_AUTH=MUTUAL_TLS\nISTIO_SERVICE_CIDR=$ISTIO_SERVICE_CIDR\n" > cluster.env
检查生成的
cluster.env
文件的内容。它应该类似于以下示例:$ cat cluster.env ISTIO_CP_AUTH=MUTUAL_TLS ISTIO_SERVICE_CIDR=10.55.240.0/20
(可选)如果 VM 仅调用网格中的服务,则可以跳过此步骤。否则,添加 VM 公开的端口 使用以下命令到
cluster.env
文件。如有必要,您可以稍后更改端口。$ echo "ISTIO_INBOUND_PORTS=3306,8080" >> cluster.env
提取要在 VM 上使用的服务帐户的初始密钥。
$ kubectl -n $SERVICE_NAMESPACE get secret istio.default \ -o jsonpath='{.data.root-cert\.pem}' |base64 --decode > root-cert.pem $ kubectl -n $SERVICE_NAMESPACE get secret istio.default \ -o jsonpath='{.data.key\.pem}' |base64 --decode > key.pem $ kubectl -n $SERVICE_NAMESPACE get secret istio.default \ -o jsonpath='{.data.cert-chain\.pem}' |base64 --decode > cert-chain.pem
设置虚拟机
接下来,在要添加到网格的每台计算机上运行以下命令:
将您在上一节中创建的
cluster.env
和*.pem
文件复制到 VM。例如:$ export GCE_NAME="your-gce-instance" $ gcloud compute scp --project=${MY_PROJECT} --zone=${MY_ZONE} {key.pem,cert-chain.pem,cluster.env,root-cert.pem} ${GCE_NAME}:~
安装 Envoy sidecar 的 Debian 软件包:
$ gcloud compute ssh --project=${MY_PROJECT} --zone=${MY_ZONE} "${GCE_NAME}" $ curl -L https://storage.googleapis.com/istio-release/releases/1.1.9/deb/istio-sidecar.deb > istio-sidecar.deb $ sudo dpkg -i istio-sidecar.deb
添加 Istio 网关的 IP 地址(我们在上一节中找到了) 到
/etc/hosts
或者 DNS 服务器。在我们的示例中,我们将使用/etc/hosts
,因为它是使事情正常工作的最简单方法。以下是 使用 Istio 网关地址更新/etc/hosts
文件的示例:$ echo "35.232.112.158 istio-citadel istio-pilot istio-pilot.istio-system" | sudo tee -a /etc/hosts
在
/etc/certs/
下安装root-cert.pem
、key.pem
和cert-chain.pem
。$ sudo mkdir -p /etc/certs $ sudo cp {root-cert.pem,cert-chain.pem,key.pem} /etc/certs
在
/var/lib/istio/envoy/
下安装cluster.env
。$ sudo cp cluster.env /var/lib/istio/envoy
将
/etc/certs/
和/var/lib/istio/envoy/
中的文件的所有权转移给 Istio 代理。$ sudo chown -R istio-proxy /etc/certs /var/lib/istio/envoy
验证节点代理是否有效:
$ sudo node_agent .... CSR 成功获得批准。将在 1079h59m59.84568493s 续订证书
使用
systemctl
启动 Istio。$ sudo systemctl start istio-auth-node-agent $ sudo systemctl start istio
将请求从 VM 工作负载发送到 Kubernetes 服务
设置完成后,计算机可以访问 Kubernetes 集群中运行的服务 或在其他网格扩展机器上。
以下示例显示使用网格扩展 VM 访问 Kubernetes 集群中运行的服务
/etc/hosts/
,在这种情况下使用 Bookinfo 示例中的服务。
首先,在集群管理员机器上获取服务的虚拟 IP 地址(
clusterIP
):$ kubectl get svc productpage -o jsonpath='{.spec.clusterIP}' 10.55.246.247
然后在网格扩展机器上,将服务名称和地址添加到其
etc/hosts
文件中。然后你可以连接到 来自 VM 的集群服务,如下例所示:$ echo "10.55.246.247 productpage.default.svc.cluster.local" | sudo tee -a /etc/hosts $ curl -v productpage.default.svc.cluster.local:9080 < HTTP/1.1 200 OK < content-type: text/html; charset=utf-8 < content-length: 1836 < server: envoy ... html content ...
header 中的 server: envoy
表示 sidecar 拦截了流量。
在网格扩展机器上运行服务
在 VM 实例上设置 HTTP 服务器以在端口 8080 上提供 HTTP 流量:
$ gcloud compute ssh ${GCE_NAME} $ python -m SimpleHTTPServer 8080
确定 VM 实例的 IP 地址。例如,使用以下命令查找 GCE 实例的 IP 地址:
$ export GCE_IP=$(gcloud --format="value(networkInterfaces[0].networkIP)" compute instances describe ${GCE_NAME}) $ echo ${GCE_IP}
通过配置
ServiceEntry
可以将 VM 服务添加到网格中。 您可以手动向 Istio 的网格模型添加其他服务,以便其他服务可以找到并引导流量到它们。每个ServiceEntry
配置包含暴露特定服务的所有 VM 的 IP 地址,端口和标签(如果适用), 如下例所示。$ kubectl -n ${SERVICE_NAMESPACE} apply -f - <<EOF apiVersion: networking.istio.io/v1alpha3 kind: ServiceEntry metadata: name: vmhttp spec: hosts: - vmhttp.${SERVICE_NAMESPACE}.svc.cluster.local ports: - number: 8080 name: http protocol: HTTP resolution: STATIC endpoints: - address: ${GCE_IP} ports: http: 8080 labels: app: vmhttp version: "v1" EOF
Kubernetes 集群中的工作负载需要 DNS 映射来解析 VM 服务的域名。要将映射与您自己的 DNS 系统集成,并创建无选择器服务,请使用
istioctl register
并创建 Kubernetesselector-less
服务,例如:$ istioctl register -n ${SERVICE_NAMESPACE} vmhttp ${GCE_IP} 8080
在 Kubernetes 集群中部署运行
sleep
服务的 pod,并等待它准备好:$ kubectl apply -f @samples/sleep/sleep.yaml@ $ kubectl get pod NAME READY STATUS RESTARTS AGE productpage-v1-8fcdcb496-xgkwg 2/2 Running 0 1d sleep-88ddbcfdd-rm42k 2/2 Running 0 1s ...
从 pod 上的
sleep
服务发送请求到 VM 的 HTTP 服务:$ kubectl exec -it sleep-88ddbcfdd-rm42k -c sleep -- curl vmhttp.${SERVICE_NAMESPACE}.svc.cluster.local:8080
你应该看到类似于下面输出的东西。
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 3.2 Final//EN"><html> <title>Directory listing for /</title> <body> <h2>Directory listing for /</h2> <hr> <ul> <li><a href=".bashrc">.bashrc</a></li> <li><a href=".ssh/">.ssh/</a></li> ... </body>
恭喜! 您已成功配置在群集中的 Pod 中运行的服务,以将流量发送到群集外部 VM 上运行的服务,并测试配置是否有效。
清理
运行以下命令从网格的抽象模型中删除扩展 VM。
$ istioctl deregister -n ${SERVICE_NAMESPACE} vmhttp ${GCE_IP} 2019-02-21T22:12:22.023775Z info Deregistered service successfull $ kubectl delete ServiceEntry vmhttp -n ${SERVICE_NAMESPACE} serviceentry.networking.istio.io "vmhttp" deleted
故障排除
以下是常见网格扩展问题的一些基本故障排除步骤。
在从 VM 发出请求到集群时,请确保不以
root
或istio-proxy
用户身份运行请求。默认情况下,Istio 将两个用户排除在拦截之外。验证计算机是否可以访问集群中运行的所有工作负载的 IP。例如:
$ kubectl get endpoints productpage -o jsonpath='{.subsets[0].addresses[0].ip}' 10.52.39.13
$ curl 10.52.39.13:9080 html output
- 检查节点代理和 sidecar 的状态:
$ sudo systemctl status istio-auth-node-agent $ sudo systemctl status istio
- 检查进程是否正在运行。以下是您在 VM 上看到的进程示例,如果您运行
ps
,过滤为istio
:
$ ps aux | grep istio root 6941 0.0 0.2 75392 16820 ? Ssl 21:32 0:00 /usr/local/istio/bin/node_agent --logtostderr root 6955 0.0 0.0 49344 3048 ? Ss 21:32 0:00 su -s /bin/bash -c INSTANCE_IP=10.150.0.5 POD_NAME=demo-vm-1 POD_NAMESPACE=default exec /usr/local/bin/pilot-agent proxy > /var/log/istio/istio.log istio-proxy istio-p+ 7016 0.0 0.1 215172 12096 ? Ssl 21:32 0:00 /usr/local/bin/pilot-agent proxy istio-p+ 7094 4.0 0.3 69540 24800 ? Sl 21:32 0:37 /usr/local/bin/envoy -c /etc/istio/proxy/envoy-rev1.json --restart-epoch 1 --drain-time-s 2 --parent-shutdown-time-s 3 --service-cluster istio-proxy --service-node sidecar~10.150.0.5~demo-vm-1.default~default.svc.cluster.local
- 检查 Envoy 访问和错误日志:
$ tail /var/log/istio/istio.log $ tail /var/log/istio/istio.err.log