Kubernetes 作为一款高效的容器编排工具,在现代云计算领域得到了广泛应用。其中,HPA(Horizontal Pod Autoscaler)是 Kubernetes 内置的一个自动伸缩的控制器。它可以根据应用负载的变化来动态地调整容器的数量,确保应用能够健康运行。
本文将介绍 Kubernetes 中 HPA 的使用方法,并结合实际场景进行详细讲解。
HPA 的基本概念
在 Kubernetes 中,Pod 是最小的调度单元,它可以包含一个或多个容器,用于运行应用程序。HPA 的本质就是对 Pod 的水平扩展或收缩,以满足负载需求。
HPA 的工作原理如下:
- 通过 Kubernetes API Server,HPA 监控应用程序的指标(如 CPU 占用率、内存占用率等)。
- HPA 计算出当前应用程序的负载,并与用户设置的目标负载作比较。
- 如果当前负载超出了目标负载的上限,HPA 将自动增加 Pod 的数量,以提供更多的容量。
- 如果当前负载低于目标负载的下限,HPA 将自动减少 Pod 的数量,以节省资源。
配置 HPA
使用 HPA 时,需要以下配置:
- 应用程序必须支持自动扩展,在 POD 描述文件中明确声明自动扩展服务的监控指标(如
cpu
、memory
)。 - 开启 K8S 集群的 metrics-server 插件,以收集应用的监控数据。
- 安装 HPA 控制器,并配置目标负载值。
配置应用程序
我们以一个简单的 nginx
镜像为例,来演示如何配置应用程序:
-- -------------------- ---- ------- ----------- ------- ----- ---------- --------- ----- ---------------- ------- ---- ----- ----- --------- - --------- ------------ ---- ----- --------- --------- ------- ---- ----- ----- ----------- - ----- ----- ------ ----- ------ - -------------- -- ---------- --------- ---- ---- - -- --- ------- --------------- -------- ----- ----------- ----- --
在 resources
字段中,我们声明了 cpu
的请求为 100m
。这意味着,当 Pod 对 CPU 的请求量超过 100m
时,HPA 将会启动自动扩展服务。
开启 metrics-server
metrics-server 是 Kubernetes 用于收集 Pod 监控数据的插件。要开启 metrics-server,我们需要执行以下命令:
$ kubectl apply -f https://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml
安装 HPA
安装 HPA 控制器非常简单,只需要执行以下命令:
$ kubectl apply autoscaling deployment nginx-deployment --min=1 --max=10 --cpu-percent=50
这将会创建一个名为 nginx-deployment
的 HPA 控制器,并设置最小 Pod 数量为 1
,最大 Pod 数量为 10
,目标 CPU 占用率为 50%
。当 CPU 占用率超过 50%
时,HPA 会自动扩展 nginx 实例数量。
示例场景
现在,我们可以通过一个示例场景,来演示 HPA 的自动伸缩功能。假设我们有一个基于 node.js
构建的 web 应用,需要支持高并发访问。以下是相关的 yaml 配置文件:
-- -------------------- ---- ------- ----------- ------- ----- ---------- --------- ----- ------------------ ------- ---- ------- ----- --------- - --------- ------------ ---- ------- --------- --------- ------- ---- ------- ----- ----------- - ----- ------- ------ -------------- ------ - -------------- ---- --------------- ---------- ----- ---- -------------------- - -------------- -- -------------- -------- ----- - ----- ---- -------------------- - -------------- -- ----------------- - ----- ------------ --- ----------- -- ----- ------- --------- ----- --------------- ----- --------- ---- ------- ----- -------- ------ - ----- ---- --------- --- ----- ---- ----------- ----
这里我们需要说明的是,我们的 node 后端程序定义了两个探针,分别为 readinessProbe
和 livenessProbe
,用于监控程序运行状态。
启动应用
首先,我们需要使用下面的命令来启动应用:
$ kubectl apply -f nodeapp.yaml
这会创建一个名为 nodeapp-deployment
的 deployment,ok!
开启 HPA
由于这个 web 应用具有高并发的特点,如果我们不手动增加容器,那么很容易出现请求超时的问题。为了解决这个问题,我们可以使用 HPA 自动伸缩功能。
下面是相应的命令:
$ kubectl autoscale deployment nodeapp-deployment --cpu-percent=50 --min=1 --max=10
这会创建一个名为 nodeapp-deployment
的 HPA 控制器,并设置 CPU 占用率上限为 50%
,最小 Pod 数量为 1
,最大 Pod 数量为 10
。
测试应用
现在我们可以开始测试我们的应用程序了。使用以下命令来获取应用程序的服务地址:
$ kubectl get service nodeapp-service --output=jsonpath='{.status.loadBalancer.ingress[0].ip}'
访问该地址,我们可以通过 web 浏览器对应用进行压力测试。
增加负载
当我们模拟多用户同时访问应用程序时,可以看到 CPU 占用率已经超过了 50%。此时,HPA 会自动增加 Pod 数量,以扩展应用的容量。
使用以下命令监控 HPA 的变化:
$ kubectl get hpa
可以看到,当 CPU 占用率超过了 50% 时,HPA 在 5 秒内自动增加了一个 Pod 实例。
缩减负载
当负载降低时,HPA 会自动缩减容器数量,以节省资源。
使用以下命令,将 CPU 占用率降低至 30%:
$ kubectl exec -it nodeapp-deployment-XXX -- stress --cpu 1 --timeout 150
这里,我们使用 stress 工具,模拟一个短时长的 CPU 占用率高峰。
使用以下命令检查 Pod 数量:
$ kubectl get pods
可以看到,当 CPU 占用率降低至 30% 时,HPA 在 5 秒内自动缩减了一个 Pod 的数量。
总结
通过本文,我们深度学习了 Kubernetes 中 HPA 的使用方法,并针对实际服务器部署情况给出了详细的指导和展示。它可以帮助我们避免由于负载过重而导致的应用程序崩溃,从而确保应用程序可以持续运行。如果你打算构建一个可伸缩的应用程序,那么 HPA 将会是一个不错的选择。
来源:JavaScript中文网 ,转载请注明来源 https://www.javascriptcn.com/post/64d4b07eb5eee0b525c829e0