OpenCensus Agent

完成本任务之后,您将明白如何使用 OpenCensus Agent 跟踪应用, 如何将这些链路导出到 OpenTelemetry Collector, 以及如何使用 OpenTelemetry Collector 将这些 span 导出到 Jaeger。

若要学习 Istio 如何处理链路,请查阅本任务的概述

开始之前

  • 按照安装指南中的说明安装 Istio。

  • sleep 示例应用程序部署为发送请求的测试源。 如果您启用了自动 Sidecar 注入, 运行以下命令部署示例应用程序:

    Zip
    $ kubectl apply -f @samples/sleep/sleep.yaml@
    

    否则,在使用以下命令部署 sleep 应用程序之前,手动注入 Sidecar:

    Zip
    $ kubectl apply -f <(istioctl kube-inject -f @samples/sleep/sleep.yaml@)
    
  • 为了发送请求,您需要创建 SOURCE_POD 环境变量来存储源 Pod 的名称:

    $ export SOURCE_POD=$(kubectl get pod -l app=sleep -o jsonpath={.items..metadata.name})
    

配置跟踪

如果您使用了 IstioOperator CR 来安装 Istio,请添加以下字段到您的配置:

apiVersion: install.istio.io/v1alpha1
kind: IstioOperator
spec:
    meshConfig:
        defaultProviders:
            tracing:
            - "opencensus"
        enableTracing: true
        extensionProviders:
        - name: "opencensus"
          opencensus:
              service: "opentelemetry-collector.istio-system.svc.cluster.local"
              port: 55678
              context:
              - W3C_TRACE_CONTEXT

采用此配置时,OpenCensus Agent 作为默认的跟踪器来安装 Istio。链路数据将被发送到 OpenTelemetry 后端。

默认情况下,Istio 的 OpenCensus Agent 跟踪将尝试读写 4 种链路头:

  • B3
  • gRPC 的二进制链路头
  • W3C Trace Context
  • 和云链路上下文(Cloud Trace Context)。

如果您提供多个值,代理将尝试以指定的顺序读取链路头,使用第一个成功解析的头并写入所有头。 这允许使用不同头的服务之间具有互操作性,例如在同一个链路中,一个服务传播 B3 头, 一个服务传播 W3C Trace Context 头。 在本例中,我们仅使用 W3C Trace Context。

在默认的配置文件中,采样率为 1%。 使用 Telemetry API 将其提高到 100%:

$ kubectl apply -f - <<EOF
apiVersion: telemetry.istio.io/v1alpha1
kind: Telemetry
metadata:
  name: mesh-default
  namespace: istio-system
spec:
  tracing:
  - randomSamplingPercentage: 100.00
EOF

部署 OpenTelemetry Collector

OpenTelemetry Collector 支持默认将链路导出到核心分发中的几个后端。 其他后端可用于 OpenTelemetry Collector 的贡献分发中。

部署并配置 Collector 以接收和导出 span 到 Jaeger 实例:

$ kubectl apply -f - <<EOF
apiVersion: v1
kind: ConfigMap
metadata:
  name: opentelemetry-collector
  namespace: istio-system
  labels:
    app: opentelemetry-collector
data:
  config: |
    receivers:
      opencensus:
        endpoint: 0.0.0.0:55678
    processors:
      memory_limiter:
        limit_mib: 100
        spike_limit_mib: 10
        check_interval: 5s
    exporters:
      zipkin:
        # Export via zipkin for easy querying
        endpoint: http://zipkin.istio-system.svc:9411/api/v2/spans
      logging:
        loglevel: debug
    extensions:
      health_check:
        port: 13133
    service:
      extensions:
      - health_check
      pipelines:
        traces:
          receivers:
          - opencensus
          processors:
          - memory_limiter
          exporters:
          - zipkin
          - logging
---
apiVersion: v1
kind: Service
metadata:
  name: opentelemetry-collector
  namespace: istio-system
  labels:
    app: opentelemetry-collector
spec:
  type: ClusterIP
  selector:
    app: opentelemetry-collector
  ports:
    - name: grpc-opencensus
      port: 55678
      protocol: TCP
      targetPort: 55678
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: opentelemetry-collector
  namespace: istio-system
  labels:
    app: opentelemetry-collector
spec:
  replicas: 1
  selector:
    matchLabels:
      app: opentelemetry-collector
  template:
    metadata:
      labels:
        app: opentelemetry-collector
    spec:
      containers:
        - name: opentelemetry-collector
          image: "otel/opentelemetry-collector:0.49.0"
          imagePullPolicy: IfNotPresent
          command:
            - "/otelcol"
            - "--config=/conf/config.yaml"
          ports:
            - name: grpc-opencensus
              containerPort: 55678
              protocol: TCP
          volumeMounts:
            - name: opentelemetry-collector-config
              mountPath: /conf
          readinessProbe:
            httpGet:
              path: /
              port: 13133
          resources:
            requests:
              cpu: 40m
              memory: 100Mi
      volumes:
        - name: opentelemetry-collector-config
          configMap:
            name: opentelemetry-collector
            items:
              - key: config
                path: config.yaml
EOF

访问仪表板

远程访问遥测插件详细说明了如何配置通过 Gateway 访问 Istio 插件。

对于测试(和临时访问),您也可以使用端口转发。 使用以下命令,假设您已将 Jaeger 部署到 istio-system 命名空间:

$ istioctl dashboard jaeger

使用 Bookinfo 样例生成链路

  1. 当 Bookinfo 应用启动且运行时,访问一次或多次 http://$GATEWAY_URL/productpage 以生成链路信息。

    要查看追踪数据,必须向服务发送请求。请求的数量取决于 Istio 的采样率。 采样率在安装 Istio 时设置,默认采样速率为 1%。在第一个跟踪可见之前,您需要发送至少 100 个请求。 使用以下命令向 productpage 服务发送 100 个请求:

    $ for i in $(seq 1 100); do curl -s -o /dev/null "http://$GATEWAY_URL/productpage"; done
        
  2. 从仪表板的左侧窗格中,从 Service 下拉列表中选择 productpage.default 并点击 Find Traces

    Tracing Dashboard
    Tracing Dashboard
  3. 点击顶部最近的链路,查看与 /productpage 最近请求对应的详情:

    Detailed Trace View
    Detailed Trace View
  4. 链路由一组 span 组成,每个 span 对应在执行 /productpage 期间调用的一个 Bookinfo 服务, 或对应 istio-ingressgateway 这种内部 Istio 组件。

由于您还在 OpenTelemetry Collector 中配置了日志记录导出器,因此您也可以在日志中看到链路:

$ kubectl -n istio-system logs deploy/opentelemetry-collector

清理

  1. 使用 Ctrl-C 或以下命令移除可能仍在运行的所有 istioctl 进程:

    $ killall istioctl
    
  2. 如果您未计划探索后续的任务,请参阅 Bookinfo 清理指示说明, 以关闭该应用。

  3. 移除 Jaeger 插件:

    $ kubectl delete -f https://raw.githubusercontent.com/istio/istio/release-1.19/samples/addons/jaeger.yaml
    
  4. 移除 OpenTelemetry Collector:

    $ kubectl delete -n istio-system cm opentelemetry-collector
    $ kubectl delete -n istio-system svc opentelemetry-collector
    $ kubectl delete -n istio-system deploy opentelemetry-collector
    
  5. 在您的 Istio 安装配置中移除 meshConfig.extensionProvidersmeshConfig.defaultProviders 设置,或将其设置为 ""

  6. 移除遥测资源:

    $ kubectl delete telemetries.telemetry.istio.io -n istio-system mesh-default
    
这些信息有用吗?
您是否有更多建议和改进意见?

感谢您的反馈!