周志明 老师在他的 《凤凰架构》 中将分布式服务通信的演化历史分成五个阶段:
- 第一阶段:将通信的非功能性需求视作业务需求的一部分,通信的可靠性由程序员来保障
这个阶段是分布式系统发展最早期时的技术策略,这些系统一开始仅仅是通过 RPC 技术去访问远程服务,当遇到通信问题时,就在业务代码中引入相应的处理逻辑,比如服务发现、网络重试或降级等。这些通信的非功能性逻辑和业务逻辑耦合在一起,让系统变得越来越复杂。
- 第二阶段:将代码中的通信功能抽离重构成公共组件库,通信的可靠性由专业的平台程序员来保障
这个阶段人们逐渐意识到通信功能应该从业务逻辑中抽离出来,于是形成了一些公共组件库,比如 Finagle、Spring Cloud 等。不过这些组件库大多是和语言绑定的,比如 Spring Cloud 技术栈只能用在 Java 项目中,遇到其他语言的项目就无能为力了。
- 第三阶段:将负责通信的公共组件库分离到进程之外,程序间通过网络代理来交互,通信的可靠性由专门的网络代理提供商来保障
为了将通信功能做成语言无关的,这个阶段发展出了专门负责可靠通信的网络代理,比如 Netflix Prana。业务系统和这类代理之间通过回环设备或 Unix 套接字进行通信,网络代理对业务系统的网络流量进行拦截,从而在代理上完成流控、重试或降级等几乎所有的分布式通信功能。
这种网络代理后来演化出了两种形态:一种是微服务网关,它位于整个分布式系统的入口,同时代理整个系统中所有服务的网络流量;另一种是边车代理,它和某个进程共享一个网络命名空间,专门针对性地代理该服务的网络流量。
- 第四阶段:将网络代理以边车的形式注入到应用容器,自动劫持应用的网络流量,通信的可靠性由专门的通信基础设施来保障
在使用上一阶段的网络代理时,我们必须在应用程序中手工指定网络代理的地址才能生效,而边车代理有一个很大的优势,它通过 iptables
等技术自动劫持代理进程的网络流量,所以它对应用是完全透明的,无需对应用程序做任何改动就可以增强应用的通信功能。目前边车代理的代表性产品有 Linkerd、Envoy、MOSN 等。不过,边车代理也有一个很大的缺点,随着系统中代理服务的增多,对边车代理的维护和管理工作就成了运维最头疼的问题,于是服务网格应运而生。
- 第五阶段:将边车代理统一管控起来实现安全、可控、可观测的通信,将数据平面与控制平面分离开来,实现通用、透明的通信,这项工作就由专门的服务网格框架来保障
服务网格(Service Mesh)一词是 Buoyant 公司的 CEO William Morgan 于 2017 年在他的一篇博客 《What's a service mesh? And why do I need one?》 中首次提出的,他是世界上第一款服务网格产品 Linkerd 的创始人之一,在博客中,William Morgan 对服务网格做了如下定义:
服务网格是一种用于管控服务间通信的的基础设施,它负责为现代云原生应用程序在复杂服务拓扑中可靠地传递请求。在实践中,服务网格通常以轻量级网络代理阵列的形式实现,这些代理与应用程序部署在一起,对应用程序来说无需感知代理的存在。
服务网格将上一阶段的边车代理联合起来形成如下所示的网格状结构:
在服务网格中,主要由数据平面与控制平面组成。数据平面是所有边车代理的集合,负责拦截所有服务流入和流出的流量,并配置控制平面对流量进行管理;控制平面对数据平面进行管理,完成配置分发、服务发现、授权鉴权等功能。如上图所示,整个系统中的通信包括两个部分:实线表示数据平面之间的通信,虚线表示控制平面和数据平面之间的通信。
服务网格的概念一经提出,其价值迅速被业界所认可,业界几乎所有的云原生玩家都积极参与了进来:
- 2016 年,Buoyant 公司 推出 Linkerd,同年,Lyft 公司 推出 Envoy
- 2017 年,Linkerd 加入 CNCF,同年,Google、IBM 和 Lyft 共同发布 Istio,为了和 Istio 展开竞争,Buoyant 公司将自家的 Conduit 产品合并到 Linkerd 中发布了 Linkerd 2
- 2018 年后,Google、亚马逊、微软分别推出各自的公有云版本 Service Mesh 产品,国内的阿里巴巴也推出了基于 Istio 的修改版 SOFAMesh(目前已经废弃),并开源了自己研发的 MOSN 代理
随着各巨头的参与,Istio 逐渐超过了 Linkerd 的地位,几乎成了原云生环境下服务网格中控制平面的事实标准,而 Envoy 凭借其卓越的性能和强大的动态配置功能,成为了服务网格中数据平面的不二选择,下图是使用 Istio 作为服务网格方案后的典型架构:
Istio 服务网格的数据平面由 Envoy 代理实现,在 week007-envoy-quickstart 中我们学习过 Envoy 的基本用法,这是一个用 C++ 开发的高性能代理,用于协调和控制微服务之间的网络流量,并为这些服务透明地提供了许多 Envoy 内置的功能特性:
- 动态服务发现
- 负载均衡
- TLS 终端
- HTTP/2 与 gRPC 代理
- 熔断器
- 健康检查
- 基于百分比流量分割的分阶段发布
- 故障注入
- 丰富的指标
不仅如此,这些服务同时还具备了 Istio 所提供的功能特性:
- 流量控制特性:通过丰富的 HTTP、gRPC、WebSocket 和 TCP 流量路由规则来执行细粒度的流量控制;
- 网络弹性特性:重试设置、故障转移、熔断器和故障注入;
- 安全性和身份认证特性:执行安全性策略,并强制实行通过配置 API 定义的访问控制和速率限制;
- 基于 WebAssembly 的可插拔扩展模型,允许通过自定义策略执行和生成网格流量的遥测。
Istio 服务网格的控制平面由 Istiod 实现,它提供了诸如服务发现(Pilot),配置(Galley),证书生成(Citadel)和可扩展性(Mixer)等功能;它通过 Envoy API 实现了对数据平面的管理,所以 Istio 的数据平面并不仅限于 Envoy,其他符合 Envoy API 规范的代理都可以作为 Istio 的数据平面。
这篇笔记将以 Istio 的官方示例来学习如何使用 Istio 和 Envoy 打造一个基于服务网格的微服务架构。
首先从 Istio 的 Release 页面 找到最新版本的安装包并下载和解压:
$ curl -LO https://github.com/istio/istio/releases/download/1.17.1/istio-1.17.1-linux-amd64.tar.gz
$ tar zxvf istio-1.17.1-linux-amd64.tar.gz
解压后的目录中包含几个文件和目录:
$ tree -L 1 istio-1.17.1
istio-1.17.1
├── LICENSE
├── README.md
├── bin
├── manifest.yaml
├── manifests
├── samples
└── tools
4 directories, 3 files
其中,bin
目录下包含了 istioctl
可执行文件,我们可以将这个目录添加到 PATH
环境变量,配置之后,就可以使用 istioctl install
命令安装 Istio 了:
$ istioctl install --set profile=demo
This will install the Istio 1.17.1 demo profile with ["Istio core" "Istiod" "Ingress gateways" "Egress gateways"] components into the cluster. Proceed? (y/N) y
✔ Istio core installed
✔ Istiod installed
✔ Ingress gateways installed
✔ Egress gateways installed
✔ Installation complete
Istio 内置了几种 不同的安装配置:
$ istioctl profile list
Istio configuration profiles:
ambient
default
demo
empty
external
minimal
openshift
preview
remote
所有的配置都位于 manifests/profiles
目录下,你也可以 定制自己的配置。这里为了演示和体验,我们使用了 demo
配置,它相对于默认的 default
配置来说,开启了一些用于演示的特性,日志级别也比较高,性能会有一定影响,所以不推荐在生产环境使用。这些配置通过统一的 IstioOperator API 来定义,我们可以通过 istioctl profile dump
查看配置详情:
$ istioctl profile dump demo
或者通过 istioctl profile diff
对比两个配置之间的差异:
$ istioctl profile diff default demo
执行 istioctl
命令时会创建了一个名为 installed-state
的自定义资源,内容就是上面所看到的 demo
配置:
$ kubectl get IstioOperator installed-state -n istio-system -o yaml
从安装的输出结果可以看到,demo
配置安装内容包括下面四个部分:
- Istio core
- Istiod
- Ingress gateways
- Egress gateways
可以使用 kubectl get deployments
来看看 Istio 具体安装了哪些服务:
$ kubectl get deployments -n istio-system
NAME READY UP-TO-DATE AVAILABLE AGE
istio-egressgateway 1/1 1 1 20m
istio-ingressgateway 1/1 1 1 20m
istiod 1/1 1 1 21m
除此之外,istioctl
命令还生成了很多其他的 Kubernetes 资源,我们可以使用 istioctl manifest generate
生成最原始的 Kubernetes YAML 定义:
$ istioctl manifest generate --set profile=demo > demo.yaml
生成上面的 YAML 后,我们甚至可以通过执行 kubectl apply -f
来安装 Istio,不过这种安装方式有很多 需要注意的地方,官方并不推荐这种做法,但这也不失为一种深入了解 Istio 原理的好方法。
除了 使用 Istioctl 安装,官方还提供了很多 其他的安装方式,比如 使用 Helm 安装,虚拟机安装 和 使用 Istio Operator 安装 等,各个云平台 也对 Istio 提供了支持。
如果要卸载 Istio,可以执行 istioctl uninstall
命令:
$ istioctl uninstall -y --purge
为了充分发挥 Istio 的所有特性,网格中的每个应用服务都必须有一个边车代理,这个边车代理可以拦截应用服务的所有出入流量,这样我们就可以利用 Istio 控制平面为应用提供服务发现、限流、可观测性等功能了。
边车代理的注入 一般有两种方法:自动注入和手动注入。上面在解压 Istio 安装包时,可以看到有一个 samples
目录,这个目录里包含了一些官方的示例程序,用于体验 Istio 的不同功能特性,其中 samples/sleep
目录下是一个简单的 sleep 应用,这一节就使用这个简单的例子来演示如何在我们的应用服务中注入一个边车代理。
首先,执行下面的命令部署 sleep 应用:
$ kubectl apply -f samples/sleep/sleep.yaml
serviceaccount/sleep created
service/sleep created
deployment.apps/sleep created
默认情况下,一个 Pod 里只有一个容器(从下面的 READY
字段是 1/1
可以看出来):
$ kubectl get pods
NAME READY STATUS RESTARTS AGE
sleep-78ff5975c6-hw2lv 1/1 Running 0 23s
接下来,我们给 default
命名空间打上 istio-injection=enabled
标签:
$ kubectl label namespace default istio-injection=enabled
namespace/default labeled
这个标签可以让 Istio 部署应用时自动注入 Envoy 边车代理,这个过程是在 Pod 创建时自动完成的,Istio 使用了 Kubernetes 的 准入控制器(Admission Controllers),通过 MutatingAdmissionWebhook 可以对创建的 Pod 进行修改,从而将边车代理容器注入到原始的 Pod 定义中。
我们将刚刚的 Pod 删除,这样 Deployment 会尝试创建一个新的 Pod,从而触发自动注入的过程:
$ kubectl delete pod sleep-78ff5975c6-hw2lv
pod "sleep-78ff5975c6-hw2lv" deleted
再次查看 Pod 列表,READY
字段已经变成了 2/2
,说明每个 Pod 里变成了两个容器:
$ kubectl get pods
NAME READY STATUS RESTARTS AGE
sleep-78ff5975c6-v6qg4 2/2 Running 0 12s
也可以使用 kubectl describe
查看 Pod 详情:
$ kubectl describe pod sleep-78ff5975c6-v6qg4
Name: sleep-78ff5975c6-v6qg4
Namespace: default
Priority: 0
Service Account: sleep
Init Containers:
istio-init:
Container ID: docker://c724b0c29ffd828e497cfdff45706061855b1b8c93073f9f037acc112367bceb
Image: docker.io/istio/proxyv2:1.17.1
Containers:
sleep:
Container ID: docker://44f35a4934841c5618eb68fb5615d75ea5dd9c5dd826cb6a99a6ded6efaa6707
Image: curlimages/curl
istio-proxy:
Container ID: docker://10a9ff35f45c7f07c1fcf88d4f8daa76282d09ad96912e026e59a4d0a99f02cf
Image: docker.io/istio/proxyv2:1.17.1
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Created 4m22s kubelet Created container istio-init
Normal Started 4m21s kubelet Started container istio-init
Normal Created 4m20s kubelet Created container sleep
Normal Started 4m20s kubelet Started container sleep
Normal Created 4m20s kubelet Created container istio-proxy
Normal Started 4m20s kubelet Started container istio-proxy
可以看到除了原始的 sleep
容器,多了一个 istio-proxy
容器,这就是边车代理,另外还多了一个 istio-init
初始化容器,它使用 iptables
将网络流量自动转发到边车代理,对应用程序完全透明。
另一种方法是手工注入边车代理,先将 default
命名空间的 istio-injection
标签移除:
$ kubectl label namespace default istio-injection-
namespace/default unlabeled
同时删除 sleep
应用:
$ kubectl delete -f samples/sleep/sleep.yaml
serviceaccount "sleep" deleted
service "sleep" deleted
deployment.apps "sleep" deleted
然后再重新部署 sleep
应用,并使用 istioctl kube-inject
命令手工注入边车代理:
$ istioctl kube-inject -f samples/sleep/sleep.yaml | kubectl apply -f -
serviceaccount/sleep created
service/sleep created
deployment.apps/sleep created
默认情况下,Istio 使用集群中的默认配置模版来生成边车配置,这个默认配置模版保存在名为 istio-sidecar-injector
的 ConfigMap 中:
# 配置模版
$ kubectl -n istio-system get configmap istio-sidecar-injector -o=jsonpath='{.data.config}'
# 配置值
$ kubectl -n istio-system get configmap istio-sidecar-injector -o=jsonpath='{.data.values}'
除了官方提供的默认模版,还可以通过在 Pod 中添加一个 istio-proxy
容器来自定义注入内容,或者通过 inject.istio.io/templates
注解来设置自定义模版,更多内容可以 参考官方文档。
这一节我们来部署一个更复杂的例子,在 samples/bookinfo
目录下是名为 Bookinfo 的示例应用,我们就使用这个应用来体验 Istio 的功能。为了方便起见,我们还是给 default
命名空间打上 istio-injection=enabled
标签开启自动注入功能,然后,执行下面的命令部署 Bookinfo 示例应用:
$ kubectl apply -f samples/bookinfo/platform/kube/bookinfo.yaml
service/details created
serviceaccount/bookinfo-details created
deployment.apps/details-v1 created
service/ratings created
serviceaccount/bookinfo-ratings created
deployment.apps/ratings-v1 created
service/reviews created
serviceaccount/bookinfo-reviews created
deployment.apps/reviews-v1 created
deployment.apps/reviews-v2 created
deployment.apps/reviews-v3 created
service/productpage created
serviceaccount/bookinfo-productpage created
deployment.apps/productpage-v1 created
这是一个简单的在线书店应用,包含了四个微服务,这些微服务由不同的语言编写:
productpage
- 产品页面,它会调用details
和reviews
两个服务;details
- 书籍详情服务;reviews
- 书籍评论服务,它有三个不同的版本,v1 版本不包含评价信息,v2 和 v3 版本会调用ratings
服务获取书籍评价,不过 v2 显示的是黑色星星,v3 显示的是红色星星;ratings
- 书籍评价服务;
部署时 Istio 会对每个微服务自动注入 Envoy 边车代理,我们可以通过 kubectl get pods
命令进行确认,确保每个 Pod 里都有两个容器在运行,其中一个是真实服务,另一个是代理服务:
$ kubectl get pods
NAME READY STATUS RESTARTS AGE
details-v1-5ffd6b64f7-r6pr5 2/2 Running 0 14m
productpage-v1-979d4d9fc-gdmzh 2/2 Running 0 14m
ratings-v1-5f9699cfdf-trqj6 2/2 Running 0 14m
reviews-v1-569db879f5-gd9st 2/2 Running 0 14m
reviews-v2-65c4dc6fdc-5lph4 2/2 Running 0 14m
reviews-v3-c9c4fb987-kzjfk 2/2 Running 0 14m
部署之后整个系统的架构图如下所示:
这个时候从外部还不能访问该服务,只能在集群内访问,进入 ratings
服务所在的 Pod,验证 productpage
服务能否正常访问:
$ kubectl exec -it ratings-v1-5f9699cfdf-trqj6 -- sh
$ curl -s productpage:9080/productpage | grep "<title>"
<title>Simple Bookstore App</title>
为了能从外部访问该服务,我们需要创建一个入站网关:
$ kubectl apply -f samples/bookinfo/networking/bookinfo-gateway.yaml
gateway.networking.istio.io/bookinfo-gateway created
virtualservice.networking.istio.io/bookinfo created
这个 YAML 中包含两个部分,第一部分定义了名为 bookinfo-gateway
的 网关(Gateway):
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: bookinfo-gateway
spec:
selector:
istio: ingressgateway # use istio default controller
servers:
- port:
number: 80
name: http
protocol: HTTP
hosts:
- "*"
注意这里使用了 istio-ingressgateway
作为网关,这在我们安装 Istio 的时候已经自动安装好了。
第二部分定义了名为 bookinfo
的 虚拟服务(Virtual Service):
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: bookinfo
spec:
hosts:
- "*"
gateways:
- bookinfo-gateway
http:
- match:
- uri:
exact: /productpage
- uri:
prefix: /static
- uri:
exact: /login
- uri:
exact: /logout
- uri:
prefix: /api/v1/products
route:
- destination:
host: productpage
port:
number: 9080
将这个虚拟服务和上面的网关关联起来,这样做的好处是,我们可以像管理网格中其他数据平面的流量一样去管理网关流量。
有了这个网关后,我们就可以在浏览器中输入 http://localhost/productpage 访问我们的在线书店了:
因为这里我们部署了三个版本的 reviews
服务,所以多刷新几次页面,可以看到页面上会随机展示 reviews
服务的不同版本的效果(可能不显示星星,也可能显示红色或黑色的星星)。
由于部署了三个版本的 reviews
服务,所以每次访问应用页面看到的效果都不一样,如果我们想访问固定的版本,该怎么做呢?
检查上面的 bookinfo.yaml
文件,之所以每次访问的效果不一样,是因为 reviews
服务的 Service 使用了 app=reviews
选择器,所以请求会负载到所有打了 app=reviews
标签的 Pod:
apiVersion: v1
kind: Service
metadata:
name: reviews
labels:
app: reviews
service: reviews
spec:
ports:
- port: 9080
name: http
selector:
app: reviews
而 reviews-v1
、reviews-v2
和 reviews-v3
三个版本的 Deployment
都使用了 app=reviews
标签:
apiVersion: apps/v1
kind: Deployment
metadata:
name: reviews-v1
labels:
app: reviews
version: v1
spec:
...
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: reviews-v2
labels:
app: reviews
version: v2
spec:
...
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: reviews-v3
labels:
app: reviews
version: v3
spec:
...
所以请求会负载到所有版本的 reviews
服务,这是 Kubernetes Service 的默认行为。不过要知道,现在所有 Pod 的流量都在我们的边车代理管控之下,我们当然可以使用 Istio 来改变请求的路径。首先,我们注意到这三个版本的 reviews
服务虽然 app=reviews
标签都一样,但是 version
标签是不一样的,这个特点可以用来定义 reviews
的 目标规则(Destination Rules):
$ kubectl apply -f samples/bookinfo/networking/destination-rule-reviews.yaml
destinationrule.networking.istio.io/reviews created
destination-rule-reviews.yaml
文件内容如下:
apiVersion: networking.istio.io/v1alpha3
kind: DestinationRule
metadata:
name: reviews
spec:
host: reviews
trafficPolicy:
loadBalancer:
simple: RANDOM
subsets:
- name: v1
labels:
version: v1
- name: v2
labels:
version: v2
- name: v3
labels:
version: v3
在 Istio 里,目标规则和虚拟服务一样,是一个非常重要的概念。在目标规则中可以定义负载策略,并根据标签来将应用划分成不同的服务子集(subset),在上面的例子中,我们将 reviews
服务划分成了 v1
、v2
和 v3
三个服务子集。接下来再为 reviews
定义一个虚拟服务:
$ kubectl apply -f samples/bookinfo/networking/virtual-service-reviews-v3.yaml
virtualservice.networking.istio.io/reviews created
virtual-service-reviews-v3.yaml
文件内容如下:
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: reviews
spec:
hosts:
- reviews
http:
- route:
- destination:
host: reviews
subset: v3
在这个虚拟服务中我们指定了 v3 服务子集,稍等片刻,再次刷新页面,可以发现每次显示的都是红色的星星,我们成功的通过 Istio 控制了服务之间的流量。
虚拟服务如果只能指定固定的服务子集,那么和 Kubernetes Service 也就没什么区别了。之所以在 Istio 引入虚拟服务的概念,就是为了 将客户端请求的目标地址与真实响应请求的目标工作负载进行解耦,这使得 A/B 测试很容易实现,比如我们可以让指定用户路由到特定的服务子集:
$ kubectl apply -f samples/bookinfo/networking/virtual-service-reviews-jason-v2-v3.yaml
virtualservice.networking.istio.io/reviews configured
virtual-service-reviews-jason-v2-v3.yaml
文件内容如下:
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: reviews
spec:
hosts:
- reviews
http:
- match:
- headers:
end-user:
exact: jason
route:
- destination:
host: reviews
subset: v2
- route:
- destination:
host: reviews
subset: v3
在这个虚拟服务中,不仅定义了一个默认路由,目标是 reviews
的 v3 服务子集,而且还定义了一个目标是 v2 服务子集的路由,但是这个路由必须满足条件 headers.end-user.exact = jason
,也就是 HTTP 请求头中必须包含值为 jason
的 end-user
字段,为了实现这一点,我们使用 jason
用户登录即可,这时看到的书籍评价就是黑色星星:
退出登录后,看到的仍然是红色的星星,这样我们就实现了 A/B 测试的功能。
除了将 headers
作为匹配条件,我们还可以使用 uri
、method
、queryParams
等参数,具体内容可参考 HTTPMatchRequest。
在上面的例子中我们实现了指定用户的 A/B 测试,一般来说,我们的服务上线后,先通过指定的测试账号进行验证,验证没有问题后就可以开始迁移流量了,我们可以先迁移 10% 的流量到新版本:
$ kubectl apply -f samples/bookinfo/networking/virtual-service-reviews-90-10.yaml
virtualservice.networking.istio.io/reviews configured
virtual-service-reviews-90-10.yaml
文件内容如下:
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: reviews
spec:
hosts:
- reviews
http:
- route:
- destination:
host: reviews
subset: v1
weight: 90
- destination:
host: reviews
subset: v2
weight: 10
在这个虚拟服务中,通过 weight
参数指定不同服务子集的权重。如果运行一段时间后没有问题,我们可以继续迁移 20% 的流量到新版本:
$ kubectl apply -f samples/bookinfo/networking/virtual-service-reviews-80-20.yaml
virtualservice.networking.istio.io/reviews configured
然后继续迁移 50%,80%,直到 100% 的流量,至此服务升级就完成了,这种升级方式也被称为 金丝雀部署。
上面演示了如何使用 Istio 对不同版本的微服务进行路由配置,这是 Istio 流量管理的基本功能。除此之外,Istio 还提供了很多其他的 流量管理功能:
- 使用 故障注入 模拟服务延迟或 HTTP Abort 故障,对应用的弹性进行测试;
- 为特定的微服务 设置请求超时;
- 配置熔断规则,应用程序能更好地应对来自故障、潜在峰值和其他未知网络因素影响;
- 使用 流量镜像 实时地将流量副本发送到其他服务;
- 控制服务网格的 入口流量;
- 控制服务网格的 出口流量;
可观测性是服务网格的另一个重要特性,Istio 对很多开源组件提供了集成,比如使用 Prometheus 收集指标,使用 Grafana 和 Kiali 对指标进行可视化,使用 Jaeger、Zipkin、Apache SkyWalking 进行分布式追踪。
在 samples/addons
目录下提供了 Prometheus、Grafana、Kiali 和 Jaeger 这几个组件的精简版本,我们通过下面的命令安装:
$ kubectl apply -f samples/addons
serviceaccount/grafana created
configmap/grafana created
service/grafana created
deployment.apps/grafana created
configmap/istio-grafana-dashboards created
configmap/istio-services-grafana-dashboards created
deployment.apps/jaeger created
service/tracing created
service/zipkin created
service/jaeger-collector created
serviceaccount/kiali created
configmap/kiali created
clusterrole.rbac.authorization.k8s.io/kiali-viewer created
clusterrole.rbac.authorization.k8s.io/kiali created
clusterrolebinding.rbac.authorization.k8s.io/kiali created
role.rbac.authorization.k8s.io/kiali-controlplane created
rolebinding.rbac.authorization.k8s.io/kiali-controlplane created
service/kiali created
deployment.apps/kiali created
serviceaccount/prometheus created
configmap/prometheus created
clusterrole.rbac.authorization.k8s.io/prometheus created
clusterrolebinding.rbac.authorization.k8s.io/prometheus created
service/prometheus created
deployment.apps/prometheus created
安装完成后,使用下面的命令打开 Prometheus UI:
$ istioctl dashboard prometheus
在 Expression 对话框中输入指标名称即可查询相应的指标,比如查询 istio_requests_total
指标:
使用下面的命令打开 Grafana UI:
$ istioctl dashboard grafana
Istio 内置了几个常用的 Grafana Dashboard 可以直接使用:
比如查看 Istio Control Plane Dashboard,这里显示的是控制平面 Istiod 的一些指标图:
要注意的是 Istio 默认的采样率为 1%,所以这时去查看 Istio Mesh Dashboard 还看不到数据,可以通过下面的脚本模拟 100 次请求:
$ for i in `seq 1 100`; do curl -s -o /dev/null http://localhost/productpage; done
使用下面的命令打开 Kiali UI:
$ istioctl dashboard kiali
选择左侧的 Graph 菜单,然后在 Namespace 下拉列表中选择 default,就可以看到 Bookinfo 示例应用的整体概览,以及各个服务之间的调用关系:
最后,使用下面的命令打开 Jaeger UI:
$ istioctl dashboard jaeger
从仪表盘左边面板的 Service
下拉列表中选择 productpage.default
,并点击 Find Traces
按钮查询该服务的所有 Trace,随便点击一个 Trace,查看它的详细信息:
上面对几种常见的可观测性组件做了一个大概的介绍,如果想进一步学习各个组件的高级特性,可以参考 Istio 的官方文档 以及各个组件的官方文档。
- 服务网格 | 凤凰架构
- 透明通信的涅槃 | 凤凰架构
- 服务网格与生态 | 凤凰架构
- Pattern: Service Mesh
- 什么是Service Mesh(服务网格)?
- 服务网格新生代-Istio
- Istio 服务网格
- 服务网格终极指南第二版——下一代微服务开发
- Istio Handbook——Istio 服务网格进阶实战
- 谈谈微服务架构中的基础设施:Service Mesh与Istio
在最早的版本中,Istio 使用 Kubernetes 提供的 Ingress API 来进行流量管理,但是这个 API 在管理大型应用系统或非 HTTP 协议服务时存在一定的缺点和限制,Istio 在 2018 年 推出了新的流量管理 API v1alpha3,在新的 API 中定义了下面这些资源:
- Gateway
- VirtualService
- DestinationRule
- ServiceEntry
关于这几个概念的意义,可以通过 Istio 的 官方文档 来学习。
2022 年 7 月,Kubernetes 发布了 Gateway API 的 Beta 版本,Istio 立即宣布了对 Kubernetes Gateway API 的支持,Istio API 也跟着升级到了 Beta 版本,并表示 Gateway API 将作为未来所有 Istio 流量管理的默认 API。
目前,用户可以选择 Kubernetes Ingress、Istio classic 和 Gateway API 三种方式来管理网格中的流量,相关内容可以参考 Kubernetes Ingress、Istio Gateway 和 Kubernetes Gateway API。