logo
Alauda Container Platform
English
简体中文
English
简体中文
logo
Alauda Container Platform
导航

产品概览

架构
发版日志

安装

安装概述

安装准备

前提条件
下载
节点预处理
安装
global 集群灾难恢复

升级

Overview
升级前准备
升级 global 集群
升级业务集群

用户界面

灵雀控制台

概览
访问 Web 控制台
Customizing the Web Console
Customizing the Left Navigation
CLI 工具

配置

功能开关配置

集群

概述
创建本地集群
etcd 加密
自动旋转 Kubernetes 证书

实用指南

为内置注册表添加外部地址
选择容器运行时
更新公共仓库凭证

网络

介绍

架构

理解 Kube-OVN
了解 ALB
了解 MetalLB

核心概念

认证
Ingress-nginx 注解兼容性
TCP/HTTP 保持连接
ModSecurity
不同 Ingress 方式的比较
HTTP 重定向
L4/L7 超时
GatewayAPI
OTel

功能指南

创建服务
创建 Ingress
配置网关
创建 Ingress-Nginx
创建域名
创建证书
创建外部 IP 地址池
创建 BGP Peers
配置子网
配置网络策略
创建 Admin 网络策略
配置集群网络策略

如何操作

为 ALB 部署高可用 VIP
软件数据中心负载均衡方案(Alpha)
准备 Kube-OVN Underlay 物理网络
Underlay 和 Overlay 子网的自动互联
在 ALB 中使用 OAuth Proxy
创建 GatewayAPI Gateway
配置负载均衡器
如何合理分配 CPU 和内存资源
将 IPv6 流量转发到集群内的 IPv4 地址
Calico 网络支持 WireGuard 加密
Kube-OVN Overlay 网络支持 IPsec 加密
ALB 监控
Application Load Balancer (ALB) 中的负载均衡会话亲和策略

故障排除

如何解决 ARM 环境中的节点间通信问题?
查找错误原因

机器配置

概览
使用 MachineConfig 管理节点配置
节点中断策略

存储

介绍

概念

访问模式与卷模式
核心概念
Persistent Volume

功能指南

创建 CephFS 文件存储类型存储类
创建 CephRBD 块存储类
创建 TopoLVM 本地存储类
创建 NFS 共享存储类
部署 Volume Snapshot 组件
创建 PV
创建 PVCs
使用卷快照

实用指南

设置 NFS 共享存储类的子目录命名规则
通用临时卷
使用 emptyDir
第三方存储能力注解指南

故障排除

从 PVC 扩容失败中恢复

存储

Ceph 分布式存储

介绍

安装

创建标准类型集群
创建 Stretch 类型集群
架构

核心概念

核心概念

操作指南

访问存储服务
管理存储池
节点特定组件部署
添加设备/设备类
监控与告警

实用指南

配置专用集群用于分布式存储
清理分布式存储

数据容灾

文件存储灾备
块存储灾难恢复
对象存储灾备
更新优化参数
创建 ceph 对象存储用户

MinIO 对象存储

介绍
安装
架构

核心概念

核心概念

操作指南

添加存储池
Monitoring & Alerts

实用指南

数据灾难恢复

TopoLVM 本地存储

介绍
安装

操作指南

设备管理
监控与告警

实用指南

使用 Velero 备份和恢复 TopoLVM 文件系统 PVC

安全

Alauda Container Security

安全性与合规性

合规

介绍
安装

使用指南

私有镜像仓库访问配置
Image Signature Verification Policy
使用 Secrets 的镜像签名验证策略
镜像仓库验证策略
容器逃逸防护策略
Security Context Enforcement Policy
网络安全策略
Volume Security Policy

API Refiner

介绍
安装

用户与角色

用户

介绍

功能指南

管理用户角色
创建用户
用户管理

用户组

介绍

功能指南

管理用户组角色
创建本地用户组
管理本地用户组成员资格

角色

介绍

功能指南

创建角色
管理自定义角色

IDP

介绍

功能指南

LDAP 管理
OIDC 管理

故障排除

删除用户

用户策略

介绍

多租户(项目)

介绍

功能指南

创建项目
管理项目
管理项目集群
管理项目成员

审计

介绍

遥测

安装

虚拟化

虚拟化

概览

介绍
安装

镜像

介绍

操作指南

添加虚拟机镜像
更新/删除虚拟机镜像
更新/删除镜像凭据

实用指南

使用 KubeVirt 基于 ISO 创建 Windows 镜像
使用 KubeVirt 基于 ISO 创建 Linux 镜像
导出虚拟机镜像
权限说明

虚拟机

介绍

操作指南

创建虚拟机/虚拟机组
虚拟机批量操作
使用 VNC 登录虚拟机
管理密钥对
管理虚拟机
监控与告警
虚拟机快速定位

实用指南

配置 USB 主机直通
虚拟机热迁移
虚拟机恢复
在 KubeVirt 上克隆虚拟机
物理 GPU 直通环境准备
配置虚拟机的高可用性
从现有虚拟机创建虚拟机模板

问题处理

虚拟机节点正常关机下的 Pod 迁移及异常宕机恢复问题
热迁移错误信息及解决方案

网络

介绍

操作指南

配置网络

实用指南

通过网络策略实现虚拟机网络请求控制
配置 SR-IOV
配置虚拟机使用网络绑定模式以支持 IPv6

存储

介绍

操作指南

管理虚拟磁盘

备份和恢复

介绍

操作指南

使用快照

开发者

快速开始

Creating a simple application via image

构建应用

核心概念

应用类型
Custom Applications
Workload Types
理解参数
理解环境变量
理解启动命令
资源单位说明

命名空间

创建命名空间
导入 Namespace
Resource Quota
Limit Range
Pod Security Admission
Overcommit Ratio
管理命名空间成员
更新命名空间
删除/移除命名空间

创建应用

Creating applications from Image
Creating applications from Chart
通过 YAML 创建应用
通过代码创建应用
Creating applications from Operator Backed
通过 CLI 工具创建应用

应用的操作与维护

Application Rollout

安装 Alauda Container Platform Argo Rollouts
Application Blue Green Deployment
Application Canary Deployment
状态说明

KEDA(Kubernetes Event-driven Autoscaling)

KEDA Overview
Installing KEDA

实用指南

Integrating ACP Monitoring with Prometheus Plugin
在 KEDA 中暂停自动扩缩容
配置 HPA
启动和停止原生应用
配置 VerticalPodAutoscaler (VPA)
配置 CronHPA
更新原生应用
导出应用
更新和删除 Chart 应用
应用版本管理
删除原生应用
健康检查

计算组件

Deployments
DaemonSets
StatefulSets
CronJobs
任务
Pods
Containers
使用 Helm charts

配置

Configuring ConfigMap
Configuring Secrets

应用可观测

监控面板
Logs
实时事件

实用指南

设置定时任务触发规则

镜像仓库

介绍

安装

通过 YAML 安装
通过 Web UI 安装

使用指南

Common CLI Command Operations
Using Alauda Container Platform Registry in Kubernetes Clusters

S2I

介绍

安装

Installing Alauda Container Platform Builds

升级

升级 Alauda Container Platform Builds
架构

功能指南

Managing applications created from Code

How To

通过代码创建应用

节点隔离策略

引言
架构

概念

核心概念

功能指南

创建节点隔离策略
权限说明
常见问题

GitOps

介绍

安装

Installing Alauda Build of Argo CD
Installing Alauda Container Platform GitOps

升级

Upgrading Alauda Container Platform GitOps
架构

核心概念

GitOps

Argo CD 核心概念

Argo CD Introduction
Application 概念
ApplicationSet 概念
Tool
Helm 概念
Kustomize 概念
Directory 概念
Sync 概念
Health 概念

Alauda Container Platform GitOps 核心概念

介绍
Alauda Container Platform GitOps 的同步及健康检查

功能指南

创建 GitOps 应用

Creating GitOps Application
Creating GitOps ApplicationSet

GitOps 可观测

Argo CD 组件监控
GitOps 应用运维

实用指南

通过 Argo CD Dashboard 集成代码仓库
通过 Argo CD dashboard 创建 Argo CD Application
通过平台创建 Argo CD Application
如何获取 Argo CD 访问信息
故障排查

扩展

Operator
集群插件

可观测性

概览

监控

介绍
安装

架构

监控模块架构
监控组件选型指南
核心概念

操作指南

指标管理
告警管理
通知管理
监控面板管理
探针管理

实用指南

Prometheus 监控数据的备份与恢复
VictoriaMetrics 监控数据备份与恢复
从自定义命名的网络接口采集网络数据

调用链

介绍
安装
架构
核心概念

操作指南

查询追踪
查询追踪日志

实用指南

Java 应用无侵入方式接入调用链
与 TraceID 相关的业务日志

问题处理

查询不到所需的调用链
调用链数据不完整

日志

介绍
安装

架构

日志模块架构
日志组件选型指南
日志组件容量规划
概念

操作指南

日志

实用指南

如何将日志归档至第三方存储
如何对接外部 ES 存储集群

事件

介绍
Events

巡检

介绍
架构

操作指南

巡检
Component Health Status

硬件加速器

概述

介绍
功能概览
安装

应用开发

介绍

功能指南

CUDA 驱动与运行时兼容性
使用 ConfigMap 添加自定义设备

故障排除

解决 vLLM 中 “float16 is only supported on GPUs with compute capability at least xx” 错误
Paddle Autogrow 内存分配在 GPU-Manager 上的崩溃问题

配置管理

介绍

功能指南

在 GPU 节点上配置硬件加速器

资源监控

介绍

功能指南

GPU 资源监控

Alauda 服务网格

关于 Alauda Service Mesh

Alauda AI

关于 Alauda AI

Alauda DevOps

关于灵雀云 DevOps

Alauda 计量计费

关于 Alauda 成本管理

Alauda 应用服务

概览

介绍
架构
安装
升级

Alauda Database Service for MySQL

关于 Alauda Database Service for MySQL-MGR
关于 Alauda Database Service for MySQL-PXC

Alauda Cache Service for Redis OSS

关于 Alauda Cache Service for Redis OSS

Alauda Streaming Service for Kafka

About Alauda Streaming Service for Kafka

Alauda Streaming Service for RabbitMQ

关于 Alauda Streaming Service for RabbitMQ

Alauda support for PostgreSQL

关于 Alauda support for PostgreSQL

运维管理

介绍

参数模板管理

介绍

功能指南

参数模板管理

备份管理

介绍

功能指南

外部 S3 存储
备份管理

检查管理

介绍

操作指南

创建巡检任务
Exec Inspection Task
更新和删除巡检任务

实用指南

如何设置检查调度?

检查优化建议

MySQL

MySQL IO负载优化
MySQL 内存使用优化
MySQL存储空间优化
MySQL 活动线程计数优化
MySQL 行锁优化

Redis

Redis 大键
Redis中的高CPU使用率
Redis中的高内存使用

Kafka

Kafka 中的高 CPU 利用率
Kafka Rebalance 优化
Kafka内存使用优化
Kafka 存储空间优化

RabbitMQ

RabbitMQ Mnesia 数据库异常处理

警报管理

介绍

操作指南

与平台能力的关系

升级管理

介绍

操作指南

示例升级

API 参考

概览

介绍
Kubernetes API 使用指南

Advanced APIs

Alert APIs

AlertHistories [v1]
AlertHistoryMessages [v1]
AlertStatus [v2]
SilenceStatus [v2]

Event APIs

Search

Log APIs

Aggregation
Archive
Context
Search

Monitoring APIs

Indicators [monitoring.alauda.io/v1beta1]
Metrics [monitoring.alauda.io/v1beta1]
Variables [monitoring.alauda.io/v1beta1]

Kubernetes APIs

Alert APIs

AlertTemplate [alerttemplates.aiops.alauda.io/v1beta1]
PrometheusRule [prometheusrules.monitoring.coreos.com/v1]

Inspection APIs

Inspection [inspections.ait.alauda.io/v1alpha1]

Notification APIs

Notification [notifications.ait.alauda.io/v1beta1]
NotificationGroup [notificationgroups.ait.alauda.io/v1beta1]
NotificationTemplate [notificationtemplates.ait.alauda.io/v1beta1]
📝 在 GitHub 上编辑此页
上一页理解 Kube-OVN
下一页了解 MetalLB

#了解 ALB

ALB(Another Load Balancer)是一个基于 OpenResty 的 Kubernetes Gateway,拥有 Alauda 多年生产经验的沉淀。

#目录

#核心组件

  • ALB Operator:管理 ALB 实例生命周期的 operator,负责监听 ALB CR 并为不同租户创建和更新 ALB 实例。
  • ALB Instance:ALB 实例包含作为数据平面的 OpenResty 和作为控制平面的 Go controller。Go controller 监控各种 CR(Ingress、Gateway、Rule 等),并将其转换为 ALB 专用的 DSL 规则。OpenResty 使用这些 DSL 规则匹配并处理传入请求。

#快速开始

#部署 ALB Operator

  1. 创建一个集群。
  2.  helm repo add alb https://alauda.github.io/alb/;helm repo update;helm search repo|grep alb
  3.  helm install alb-operator alb/alauda-alb2

#部署 ALB 实例

cat <<EOF | kubectl apply -f -
apiVersion: crd.alauda.io/v2beta1
kind: ALB2
metadata:
    name: alb-demo
    namespace: kube-system
spec:
    address: "172.20.0.5"  # ALB 部署所在节点的 IP 地址
    type: "nginx"
    config:
        networkMode: host
        loadbalancerName: alb-demo
        projects:
        - ALL_ALL
        replicas: 1
EOF

#运行示例应用

cat <<EOF | kubectl apply -f -
apiVersion: apps/v1
kind: Deployment
metadata:
  name: hello-world
  labels:
    k8s-app: hello-world
spec:
  replicas: 1
  selector:
    matchLabels:
      k8s-app: hello-world
  template:
    metadata:
      labels:
        k8s-app: hello-world
    spec:
      terminationGracePeriodSeconds: 60
      containers:
      - name: hello-world
        image: docker.io/crccheck/hello-world:latest
        imagePullPolicy: IfNotPresent
---
apiVersion: v1
kind: Service
metadata:
  name: hello-world
  labels:
    k8s-app: hello-world
spec:
  ports:
  - name: http
    port: 80
    targetPort: 8000
  selector:
    k8s-app: hello-world
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: hello-world
spec:
  rules:
  - http:
      paths:
      - path: /
        pathType: Prefix
        backend:
          service:
            name: hello-world
            port:
              number: 80
EOF

现在你可以通过 curl http://${ip} 访问该应用。

#ALB 常见概念

以下定义了 ALB 中的常见概念。

#Auth

Auth 是一种在请求到达实际服务之前进行身份认证的机制。它允许你在 ALB 层统一处理认证,而无需在每个后端服务中实现认证逻辑。

了解更多 ALB Auth。

#网络模式

ALB 实例可以以两种模式部署:host 网络模式和容器网络模式。

#Host 网络模式

直接使用节点的网络栈,共享节点的 IP 地址和端口。

在此模式下,负载均衡器实例直接绑定节点端口,无需端口映射或类似的容器网络封装转换。

NOTE

为避免端口冲突,单个节点上只允许部署一个 ALB 实例。

在 host-network 模式下,ALB 实例默认监听节点的所有网卡。

#优点:
  1. 最佳网络性能。
  2. 可通过节点 IP 访问。
#缺点:
  1. 单节点只允许部署一个 ALB 实例。
  2. 端口可能与其他进程冲突。

#容器网络模式

与 host 网络模式不同,容器网络模式通过容器网络部署 ALB。

#优点:
  1. 支持单节点部署多个 ALB 实例。
  2. ALB 集成 MetalLB,可为 ALB 提供 VIP。
  3. 端口不会与其他进程冲突。
#缺点:
  1. 性能略低。
  2. 必须通过 LoadBalancer 服务访问 ALB。

#Frontend

定义了一个名为 frontend(简称 ft)的资源,用于声明所有 ALB 应监听的端口。

每个 frontend 对应负载均衡器(LB)上的一个监听端口。Frontend 通过标签与 ALB 关联。

apiVersion: crd.alauda.io/v1
kind: Frontend
metadata:
  labels:
    alb2.cpaas.io/name: alb-demo
  name: alb-demo-00080
  namespace: cpaas-system
spec:
  backendProtocol: "http"
  certificate_name: ""
  port: 80
  protocol: http
  serviceGroup:
    services:
      - name: hello-world
        namespace: default
        port: 80
        weight: 100
  1. 必填,指明该 Frontend 所属的 ALB 实例。
  2. 格式为 $alb_name-$port。
  3. 格式为 $secret_ns/$secret_name。
  4. Frontend 自身的协议。
    • http|https|grpc|grpcs 用于 L7 代理。
    • tcp|udp 用于 L4 代理。
  5. 对于 L4 代理,serviceGroup 是必填;对于 L7 代理,serviceGroup 是可选的。当请求到达时,ALB 会先尝试匹配与该 Frontend 关联的规则,只有当请求不匹配任何规则时,才会将请求转发到 Frontend 配置中指定的默认 serviceGroup。
  6. weight 配置适用于轮询和加权轮询调度算法。
NOTE

ALB 监听 ingress 并自动创建 Frontend 或 Rule。source 字段定义如下:

  1. spec.source.type 目前仅支持 ingress。
  2. spec.source.name 是 ingress 名称。
  3. spec.source.namespace 是 ingress 命名空间。

#其他资源

  • L4/L7 超时
  • Keepalive

#Rules

定义了一个名为 rule 的资源,用于描述 ALB 实例如何处理七层请求。

Rule 可配置复杂的流量匹配和分发模式。流量到达时,根据内部规则进行匹配并执行相应转发,同时提供如 cors、url 重写等附加功能。

apiVersion: crd.alauda.io/v1
kind: Rule
metadata:
  labels:
    alb2.cpaas.io/frontend: alb-demo-00080
    alb2.cpaas.io/name: alb-demo
  name: alb-demo-00080-test
  namespace: kube-system
spec:
  backendProtocol: ""
  certificate_name: ""
  dslx:
    - type: METHOD
      values:
        - - EQ
          - POST
    - type: URL
      values:
        - - STARTS_WITH
          - /app-a
        - - STARTS_WITH
          - /app-b
    - type: PARAM
      key: group
      values:
        - - EQ
          - vip
    - type: HOST
      values:
        - - ENDS_WITH
          - .app.com
    - type: HEADER
      key: LOCATION
      values:
        - - IN
          - east-1
          - east-2
    - type: COOKIE
      key: uid
      values:
        - - EXIST
    - type: SRC_IP
      values:
        - - RANGE
          - "1.1.1.1"
          - "1.1.1.100"
  enableCORS: false
  priority: 4
  serviceGroup:
    services:
      - name: hello-world
        namespace: default
        port: 80
        weight: 100
  1. 必填,指明该规则所属的 Frontend。
  2. 必填,指明该规则所属的 ALB。
  3. 同 Frontend。
  4. 同 Frontend。
  5. 数值越小优先级越高。
  6. 同 Frontend。

#dslx

dslx 是一种领域专用语言,用于描述匹配条件。

例如,下面的规则匹配满足以下所有条件的请求:

  • url 以 /app-a 或 /app-b 开头
  • 方法为 POST
  • url 参数 group 等于 vip
  • host 以 .app.com 结尾
  • header 中 LOCATION 为 east-1 或 east-2
  • 存在名为 uid 的 cookie
  • 源 IP 在 1.1.1.1 到 1.1.1.100 范围内
dslx:
  - type: METHOD
    values:
      - - EQ
        - POST
  - type: URL
    values:
      - - STARTS_WITH
        - /app-a
      - - STARTS_WITH
        - /app-b
  - type: PARAM
    key: group
    values:
      - - EQ
        - vip
  - type: HOST
    values:
      - - ENDS_WITH
        - .app.com
  - type: HEADER
    key: LOCATION
    values:
      - - IN
        - east-1
        - east-2
  - type: COOKIE
    key: uid
    values:
      - - EXIST
  - type: SRC_IP
    values:
      - - RANGE
        - "1.1.1.1"
        - "1.1.1.100"

#项目隔离

对于 rule,默认启用项目隔离,每个用户只能看到自己项目的规则。

#项目模式

一个 ALB 可以被多个项目共享,这些项目可以共同管理该 ALB。ALB 的所有端口对这些项目可见。

#端口项目模式

ALB 的某个端口可以属于不同项目。该部署模式称为端口项目模式。管理员需指定每个项目可使用的端口段,该项目用户只能创建该端口段内的端口,并且只能看到该端口段内的端口。

#ALB、ALB 实例、Frontend/FT、Rule、Ingress 和项目之间的关系

LoadBalancer 是现代云原生架构中的关键组件,作为智能流量路由和负载均衡器。

要理解 ALB 在 Kubernetes 集群中的工作原理,需要了解几个核心概念及其关系:

  • ALB 本身
  • Frontend (FT)
  • Rules
  • Ingress 资源
  • Projects

这些组件协同工作,实现灵活且强大的流量管理能力。

下面介绍这些概念如何协作以及它们在请求调用链中的角色。每个概念的详细介绍将在其他文章中展开。

在请求调用链中:

  1. 客户端发送 HTTP/HTTPS/其他协议请求,最终请求会到达 ALB 的某个 pod,该 pod(ALB 实例)开始处理请求。
  2. ALB 实例查找匹配该请求的规则。
  3. 如有需要,根据规则修改/重定向/重写请求。
  4. 从规则配置的服务中选择一个 pod IP,并将请求转发给该 pod。

#Ingress

Ingress 是 Kubernetes 中的资源,用于描述请求应发送到哪个服务。

#Ingress Controller

理解 Ingress 资源并将请求代理到服务的程序。

#ALB

ALB 是一种 Ingress controller。

在 Kubernetes 集群中,我们使用 alb2 资源来操作 ALB。你可以使用 kubectl get alb2 -A 查看集群中所有 ALB。

ALB 由用户手动创建。每个 ALB 有自己的 IngressClass。创建 Ingress 时,可以通过 .spec.ingressClassName 字段指定由哪个 Ingress controller 处理该 Ingress。

#ALB 实例

ALB 也是集群中运行的 Deployment(多个 pod)。每个 pod 称为一个 ALB 实例。

每个 ALB 实例独立处理请求,但所有实例共享同一 ALB 的 Frontend (FT)、Rule 及其他配置。

#ALB-Operator

ALB-Operator 是集群中默认部署的组件,是 ALB 的 operator。它根据 ALB 资源创建/更新/删除 Deployment 及相关资源。

#Frontend(简称 FT)

FT 是 ALB 自定义的资源,用于表示 ALB 实例监听的端口。

FT 可由 ALB-Leader 或用户手动创建。

ALB-Leader 创建 FT 的场景:

  1. Ingress 有证书时,创建 FT 443(HTTPS)。
  2. Ingress 无证书时,创建 FT 80(HTTP)。

#RULE

RULE 是 ALB 自定义的资源,作用类似 Ingress,但更具体。

RULE 唯一关联一个 FT。

RULE 可由 ALB-Leader 或用户手动创建。

ALB-Leader 创建 RULE 的场景:

  1. 将 Ingress 同步为 RULE。

#ALB Leader

在多个 ALB 实例中,会选举出一个 leader。

Leader 负责:

  1. 将 Ingress 转换为 Rules。 为 Ingress 中的每个路径创建 Rule。
  2. 创建 Ingress 需要的 FT。 例如,Ingress 有证书时创建 FT 443(HTTPS),无证书时创建 FT 80(HTTP)。

#项目

从 ALB 角度看,项目是一组命名空间。

你可以在 ALB 中配置一个或多个项目。

当 ALB Leader 将 Ingress 转换为 Rules 时,会忽略不属于项目的命名空间中的 Ingress。

#其他资源:

  • 配置 Load Balancer