深入了解双向 TLS
通过此任务,您可以仔细查看双向 TLS 并了解其设置。 此任务假定:
- 您已完成基础验证策略任务。
- 您熟悉使用基础验证策略来启用双向 TLS。
- Istio 在 Kubernetes 上运行,启用全局双向 TLS。您可以按照我们的安装 Istio 的说明。 如果您已经安装了 Istio,则可以添加或修改基础验证策略和目标规则以启用双向 TLS,如 网格中的所有服务启用双向 TLS 认证 中所述。
您已经在
default
命名空间中使用 Envoy sidecar 部署了 httpbin 和 sleep。例如,下面是使用 手工注入 Sidecar部署这些服务的命令:$ kubectl apply -f <(istioctl kube-inject -f @samples/httpbin/httpbin.yaml@) $ kubectl apply -f <(istioctl kube-inject -f @samples/sleep/sleep.yaml@)
检查 Citadel 是否运行正常
Citadel 是 Istio 的密钥管理服务。Citadel 必须正常运行才能使双向 TLS 正常工作。 使用以下命令验证 Citadel 在集群中是否正确运行:
$ kubectl get deploy -l istio=citadel -n istio-system
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
istio-citadel 1 1 1 1 1m
如果 “AVAILABLE” 列值为 1,则说明 Citadel 已经成功运行。
校验密钥和证书的安装情况
Istio 会为所有开启双向 TLS 的 sidecar 容器自动安装身份验证所必要的密钥和证书。运行以下命令确认 /etc/certs
下存在密钥和证书文件:
$ kubectl exec $(kubectl get pod -l app=httpbin -o jsonpath={.items..metadata.name}) -c istio-proxy -- ls /etc/certs
cert-chain.pem
key.pem
root-cert.pem
使用 openssl
工具来检查证书的有效性(当前时间应该处于 Not Before
和 Not After
之间)
$ kubectl exec $(kubectl get pod -l app=httpbin -o jsonpath={.items..metadata.name}) -c istio-proxy -- cat /etc/certs/cert-chain.pem | openssl x509 -text -noout | grep Validity -A 2
Validity
Not Before: May 17 23:02:11 2018 GMT
Not After : Aug 15 23:02:11 2018 GMT
还可以查看一下客户端证书的 SAN(Subject Alternative Name)
$ kubectl exec $(kubectl get pod -l app=httpbin -o jsonpath={.items..metadata.name}) -c istio-proxy -- cat /etc/certs/cert-chain.pem | openssl x509 -text -noout | grep 'Subject Alternative Name' -A 1
X509v3 Subject Alternative Name:
URI:spiffe://cluster.local/ns/default/sa/default
请参阅 Istio 认证 一节,可以了解更多服务认证方面的内容。
检查 istio
双向 TLS 认证的配置
您可以使用 istioctl
工具检查有效的双向 TLS 设置。标识用于的身份验证策略和目标规则
httpbin.default.svc.cluster.local
配置和使用的模式,使用以下命令:
$ istioctl authn tls-check httpbin.default.svc.cluster.local
在以下示例输出中,您可以看到:
- 在 8080 端口上始终为
httpbin.default.svc.cluster.local
设置双向 TLS。 - Istio 使用网格范围的
default
身份验证策略。 - Istio 在
default
命名空间中有default
目的地规则。
HOST:PORT STATUS SERVER CLIENT AUTHN POLICY DESTINATION RULE
httpbin.default.svc.cluster.local:8080 OK mTLS mTLS default/ default/default
输出显示:
STATUS
:服务器,本例中的httpbin
服务和调用httpbin
的客户端之间的 TLS 设置是否一致。SERVER
:服务器上使用的模式。CLIENT
:客户端或客户端使用的模式。AUTHN POLICY
:身份验证策略的名称和命名空间。如果策略是网格范围的策略,则命名空间为空,如本例所示:default/
DESTINATION RULE
:使用的目标规则的名称和名称空间。
为了说明存在冲突的情况,请为具有错误 TLS 模式的 httpbin
添加特定于服务的目标规则:
$ cat <<EOF | istioctl create -n bar -f -
apiVersion: "networking.istio.io/v1alpha3"
kind: "DestinationRule"
metadata:
name: "bad-rule"
spec:
host: "httpbin.default.svc.cluster.local"
trafficPolicy:
tls:
mode: DISABLE
EOF
运行与上面相同的 istioctl
命令,您现在看到状态为 CONFLICT
,因为客户端处于 HTTP
模式,而服务器处于 mTLS
。
$ istioctl authn tls-check httpbin.default.svc.cluster.local
HOST:PORT STATUS SERVER CLIENT AUTHN POLICY DESTINATION RULE
httpbin.default.svc.cluster.local:8080 CONFLICT mTLS HTTP default/ bad-rule/default
您还可以确认从 sleep
到 httpbin
的请求现在已失败:
$ kubectl exec $(kubectl get pod -l app=sleep -o jsonpath={.items..metadata.name}) -c sleep -- curl httpbin:8000/headers -o /dev/null -s -w '%{http_code}\n'
000
command terminated with exit code 56
在继续之前,请使用以下命令删除错误的目标规则以使双向 TLS 再次起作用:
$ kubectl delete --ignore-not-found=true bad-rule
验证请求
此任务显示具有双向 TLS 的服务器如何启用对以下请求的响应:
- 使用明文请求中(即 HTTP 请求)
- 使用 TLS 但没有客户端证书
- 使用 TLS 和客户端证书
要执行此任务,您需要绕过客户端代理。最简单的方法是从 istio-proxy
容器发出请求。
确认明文请求请求失败,因为需要 TLS 使用以下命令与
httpbin
对话:$ kubectl exec $(kubectl get pod -l app=sleep -o jsonpath={.items..metadata.name}) -c istio-proxy -- curl http://httpbin:8000/headers -o /dev/null -s -w '%{http_code}\n' 000 command terminated with exit code 56
确认没有客户端证书的 TLS 请求也会失败:
$ kubectl exec $(kubectl get pod -l app=sleep -o jsonpath={.items..metadata.name}) -c istio-proxy -- curl https://httpbin:8000/headers -o /dev/null -s -w '%{http_code}\n' -k 000 command terminated with exit code 35
使用客户端证书确认 TLS 请求成功:
$ kubectl exec $(kubectl get pod -l app=sleep -o jsonpath={.items..metadata.name}) -c istio-proxy -- curl https://httpbin:8000/headers -o /dev/null -s -w '%{http_code}\n' --key /etc/certs/key.pem --cert /etc/certs/cert-chain.pem --cacert /etc/certs/root-cert.pem -k 200
清理
$ kubectl delete --ignore-not-found=true -f @samples/httpbin/httpbin.yaml@
$ kubectl delete --ignore-not-found=true -f @samples/sleep/sleep.yaml@