获取 TCP 服务指标
本文任务展示了如何对 Istio 进行配置,从而自动收集网格中 TCP 服务的遥测数据。在任务最后,会为网格中的一个 TCP 服务启用一个新的指标。
在本例中会使用 Bookinfo 作为示例应用。
开始之前
在集群中安装 Istio 并部署一个应用。
任务中假设 Bookinfo 应用部署在
default
命名空间中。如果使用不同的命名空间,需要更新例子中的相关配置和命令。
收集新的遥测数据
创建一个新的 YAML 文件用于配置新的指标,Istio 会据此文件生成并自动收集新建指标。
把下面的文本保存为
tcp_telemetry.yaml
:# 配置一个指标,描述从服务器发送到客户端的字节数量 apiVersion: "config.istio.io/v1alpha2" kind: metric metadata: name: mongosentbytes namespace: default spec: value: connection.sent.bytes | 0 # uses a TCP-specific attribute dimensions: source_service: source.workload.name | "unknown" source_version: source.labels["version"] | "unknown" destination_version: destination.labels["version"] | "unknown" monitoredResourceType: '"UNSPECIFIED"' --- # 这一指标代表从客户端到服务器的字节数 apiVersion: "config.istio.io/v1alpha2" kind: metric metadata: name: mongoreceivedbytes namespace: default spec: value: connection.received.bytes | 0 # uses a TCP-specific attribute dimensions: source_service: source.workload.name | "unknown" source_version: source.labels["version"] | "unknown" destination_version: destination.labels["version"] | "unknown" monitoredResourceType: '"UNSPECIFIED"' --- # 配置 Prometheus 的 Handler apiVersion: "config.istio.io/v1alpha2" kind: prometheus metadata: name: mongohandler namespace: default spec: metrics: - name: mongo_sent_bytes # Prometheus metric name instance_name: mongosentbytes.metric.default # Mixer instance name (fully-qualified) kind: COUNTER label_names: - source_service - source_version - destination_version - name: mongo_received_bytes # Prometheus metric name instance_name: mongoreceivedbytes.metric.default # Mixer instance name (fully-qualified) kind: COUNTER label_names: - source_service - source_version - destination_version --- # 这里定义一个 rule,把 metric 发送给 Prometheus handler apiVersion: "config.istio.io/v1alpha2" kind: rule metadata: name: mongoprom namespace: default spec: match: context.protocol == "tcp" && destination.service.host == "mongodb.default.svc.cluster.local" actions: - handler: mongohandler.prometheus instances: - mongoreceivedbytes.metric - mongosentbytes.metric
应用新配置。
$ kubectl apply -f tcp_telemetry.yaml Created config metric/default/mongosentbytes at revision 3852843 Created config metric/default/mongoreceivedbytes at revision 3852844 Created config prometheus/default/mongohandler at revision 3852845 Created config rule/default/mongoprom at revision 3852846
设置 Bookinfo 使用 Mongodb。
安装
ratings
服务的v2
版本。如果使用的是启用了 Sidecar 自动注入的集群,可以简单使用
kubectl
进行服务部署:$ kubectl apply -f @samples/bookinfo/platform/kube/bookinfo-ratings-v2.yaml@
如果使用手工的 Sidecar 注入方式,就需要使用下面的命令:
$ kubectl apply -f <(istioctl kube-inject -f @samples/bookinfo/platform/kube/bookinfo-ratings-v2.yaml@) deployment "ratings-v2" configured
安装
mongodb
服务:如果使用的是启用了 Sidecar 自动注入的集群,可以简单使用
kubectl
进行服务部署:$ kubectl apply -f @samples/bookinfo/platform/kube/bookinfo-db.yaml@
如果使用手工的 Sidecar 注入方式,就需要使用下面的命令:
$ kubectl apply -f <(istioctl kube-inject -f @samples/bookinfo/platform/kube/bookinfo-db.yaml@) service "mongodb" configured deployment "mongodb-v1" configured
Bookinfo 示例部署了每个微服务的多个版本,因此您将首先创建目标规则 定义每个版本对应的服务子集,以及每个子集的负载均衡策略。
$ kubectl apply -f @samples/bookinfo/networking/destination-rule-all.yaml@
如果您启用了双向 TLS,请执行以下操作
$ kubectl apply -f @samples/bookinfo/networking/destination-rule-all-mtls.yaml@
您可以使用以下命令显示目标规则:
$ kubectl get destinationrules -o yaml
由于虚拟服务中的子集引用依赖于目标规则, 在添加引用这些子集的虚拟服务之前,请等待几秒钟以使目标规则传播。
创建
ratings
以及reviews
两个虚拟服务:$ kubectl apply -f @samples/bookinfo/networking/virtual-service-ratings-db.yaml@ Created config virtual-service/default/reviews at revision 3003 Created config virtual-service/default/ratings at revision 3004
向应用发送流量。
对于 Bookinfo 应用来说,在浏览器中浏览
http://$GATEWAY_URL/productpage
,或者使用下面的命令:$ curl http://$GATEWAY_URL/productpage
检查是否已经生成并收集了新的指标。
在 Kubernetes 环境中,使用下面的命令为 Prometheus 设置端口转发:
$ kubectl -n istio-system port-forward $(kubectl -n istio-system get pod -l app=prometheus -o jsonpath='{.items[0].metadata.name}') 9090:9090 &
使用 Prometheus 界面 浏览新的指标值。
上面的连接会打开 Promethe 界面,并执行了对
istio_mongo_received_bytes
指标的查询。Console 标签页中包含了大致如下的内容:istio_mongo_received_bytes{destination_version="v1",instance="172.17.0.18:42422",job="istio-mesh",source_service="ratings-v2",source_version="v2"}
理解 TCP 遥控数据的收集过程
这一任务中,我们加入了一段 Istio 配置,对于所有目标为网格内 TCP 服务的流量,Mixer 自动为其生成并报告新的指标。
类似收集指标和日志任务中的情况,新的配置由 instance 、一个 handler 以及一个 rule 构成。请参看该任务来获取关于指标收集的组件的完整信息。
instances 中属性集的可选范围不同,是 TCP 服务的指标收集过程的唯一差异。
TCP 属性
TCP 相关的属性是 Istio 中 TCP 策略和控制的基础。这些属性是由服务端的 Envoy 代理生成的。它们在连接建立时发给 Mixer,在连接的存活期间周期性的进行发送(周期性报告),最后在连接关闭时再次发送(最终报告)。周期性报告的缺省间隔时间为 10 秒钟,最小取值为 1 秒。另外上下文属性让策略有了区分 http
和 tcp
协议的能力。
清理
删除新的遥测配置:
$ kubectl delete -f tcp_telemetry.yaml
删除端口转发进程:
$ killall kubectl
如果不准备进一步探索其他任务,请参照 Bookinfo 清理,关闭示例应用。