global
будет обращаться к узлам через этот прокси-сервис.Для производственных сред необходим балансировщик нагрузки для узлов управляющей плоскости кластера, чтобы обеспечить высокую доступность.
Вы можете использовать собственный аппаратный балансировщик нагрузки или включить Self-built VIP
, который обеспечивает программную балансировку нагрузки с помощью haproxy + keepalived.
Рекомендуется использовать аппаратный балансировщик нагрузки, поскольку:
При использовании собственного аппаратного балансировщика нагрузки в качестве параметра IP Address / Domain
можно указать VIP балансировщика. Если у вас есть доменное имя, разрешающееся в VIP балансировщика, можно использовать это доменное имя.
Примечание:
6443
, 11780
и 11781
на всех узлах управляющей плоскости кластера.IP Address / Domain
, то впоследствии масштабировать кластер с одного узла до высокодоступного многозвенного нельзя. Поэтому рекомендуется использовать балансировщик нагрузки даже для однозвенных кластеров.При включении Self-built VIP
необходимо подготовить:
global
и рабочих кластеровПлатформа требует взаимного доступа между кластером global
и рабочими кластерами. Если они находятся в разных сетях, необходимо:
External Access
для рабочего кластера, чтобы кластер global
мог получить к нему доступ. Требования к сети: global
должен иметь доступ к портам 6443
, 11780
и 11781
на всех узлах управляющей плоскости.global
, доступный рабочему кластеру. При создании рабочего кластера добавьте этот адрес в аннотации кластера с ключом cpaas.io/platform-url
и значением, равным публичному адресу доступа к global
.Образы кластера поддерживают варианты: встроенный в платформу, приватный репозиторий и публичный репозиторий.
global
. Если кластер не может получить доступ к global
, смотрите Add External Address for Built-in Registry.Если вы планируете использовать Kube-OVN Underlay для вашего кластера, обратитесь к разделу Preparing Kube-OVN Underlay Physical Network.
Перейдите в представление Platform Management и в левом навигационном меню выберите Clusters/Clusters.
Нажмите Create Cluster.
Настройте следующие разделы согласно инструкциям ниже: Basic Info, Container Network, Node Settings и Extended Parameters.
Параметр | Описание |
---|---|
Kubernetes Version | Все доступные версии тщательно протестированы на стабильность и совместимость. Рекомендация: Выбирайте последнюю версию для оптимальных возможностей и поддержки. |
Container Runtime | По умолчанию используется containerd. Если вы предпочитаете Docker в качестве runtime, обратитесь к разделу Choosing a Container Runtime. |
Cluster Network Protocol | Поддерживаются три режима: IPv4 single stack, IPv6 single stack, IPv4/IPv6 dual stack. Примечание: При выборе dual stack убедитесь, что на всех узлах корректно настроены IPv6-адреса; после установки изменить сетевой протокол нельзя. |
Cluster Endpoint |
|
Корпоративная система оркестрации сетей контейнеров Cloud Native Kubernetes, разработанная Alauda. Она переносит зрелые сетевые возможности из области OpenStack в Kubernetes, поддерживает управление сетями между облаками, традиционную сетевую архитектуру и инфраструктурное межсоединение, сценарии развертывания на периферийных кластерах, значительно повышая безопасность, эффективность управления и производительность сетей контейнеров Kubernetes.
Параметр | Описание |
---|---|
Subnet | Также известен как Cluster CIDR, представляет подсеть по умолчанию. После создания кластера можно добавлять дополнительные подсети. |
Transmit Mode | Overlay: Виртуальная сеть, абстрагированная над инфраструктурой, не потребляющая физические сетевые ресурсы. При создании Overlay подсети по умолчанию все Overlay подсети кластера используют одинаковую конфигурацию cluster NIC и node NIC.
|
Service CIDR | Диапазон IP-адресов, используемый Kubernetes Service типа ClusterIP. Не должен пересекаться с диапазоном подсети по умолчанию. |
Join CIDR | В режиме передачи Overlay это диапазон IP-адресов для связи между узлами и pod. Не должен пересекаться с подсетью по умолчанию или Service CIDR. |
Параметр | Описание |
---|---|
Network Interface Card | Имя сетевого интерфейса хоста, используемого сетевым плагином кластера. Примечание:
|
Node Name | Можно выбрать использование IP-адреса узла или имени хоста в качестве имени узла на платформе. Примечание: При выборе имени хоста убедитесь, что имена хостов узлов, добавляемых в кластер, уникальны. |
Nodes | Добавьте узлы в кластер или Восстановите из черновика временно сохранённую информацию об узлах. Подробные описания параметров добавления узлов приведены ниже. |
Monitoring Type | Поддерживаются Prometheus и VictoriaMetrics. - Deploy VictoriaMetrics Agent: Разворачивает только компонент сбора логов VMAgent. При таком способе необходимо связать с уже развернутым экземпляром VictoriaMetrics на другом кластере платформы для предоставления мониторинга. |
Monitoring Nodes | Выберите узлы для развертывания компонентов мониторинга кластера. Поддерживается выбор вычислительных узлов и узлов управляющей плоскости, разрешающих развертывание приложений. Чтобы не влиять на производительность кластера, рекомендуется отдавать предпочтение вычислительным узлам. После успешного создания кластера компоненты мониторинга с типом хранения Local Volume будут развернуты на выбранных узлах. |
Параметры добавления узлов
Параметр | Описание |
---|---|
Type | Control Plane Node: Отвечает за запуск компонентов kube-apiserver, kube-scheduler, kube-controller-manager, etcd, контейнерной сети и некоторых компонентов управления платформой в кластере. При включенной опции Application Deployable узлы управляющей плоскости могут использоваться как вычислительные. Worker Node: Отвечает за размещение бизнес-подов, работающих в кластере. |
IPv4 Address | IPv4-адрес узла. Для кластеров, созданных в режиме внутренней сети, укажите приватный IP узла. |
IPv6 Address | Действительно при включенном dual stack IPv4/IPv6. IPv6-адрес узла. |
Application Deployable | Действительно при типе узла Control Plane Node. Разрешить ли развертывание бизнес-приложений на этом узле управляющей плоскости, то есть планировать бизнес-поды на этот узел. |
Display Name | Отображаемое имя узла. |
SSH Connection IP | IP-адрес, по которому можно подключиться к узлу через SSH. Если вы можете войти на узел с помощью |
Network Interface Card | Укажите имя сетевого интерфейса, используемого узлом. Приоритет эффективности конфигурации сетевого интерфейса следующий (слева направо, по убыванию): Kube-OVN Underlay: Node NIC > Cluster NIC Kube-OVN Overlay: Node NIC > Cluster NIC > NIC, соответствующий default route узла Calico: Cluster NIC > NIC, соответствующий default route узла Flannel: Cluster NIC > NIC, соответствующий default route узла |
Associated Bridge Network | Примечание: При создании кластера конфигурация мостовой сети не поддерживается; этот параметр доступен только при добавлении узлов в кластер, в котором уже созданы Underlay подсети. Выберите существующую Add Bridge Network. Если не хотите использовать NIC по умолчанию мостовой сети, можно отдельно настроить node NIC. |
SSH Port | Номер порта SSH, например, |
SSH Username | Имя пользователя SSH с правами root, например, |
Proxy | Использовать ли прокси для доступа к SSH-порту узла. Если кластер Примечание: В настоящее время поддерживается только SOCKS5 прокси. Access URL: Адрес прокси-сервера, например, Password: Пароль для доступа к прокси-серверу. |
SSH Authentication | Метод аутентификации и соответствующая информация для входа на добавляемый узел. Варианты: Password: Требуется имя пользователя с правами root и соответствующий SSH пароль. |
Save Draft | Сохраняет текущие настройки в диалоге как черновик и закрывает окно Add Node. Не покидая страницу Create Cluster, можно выбрать Restore from draft для открытия диалога Add Node и восстановления сохранённых данных. Примечание: Восстанавливаются данные самого последнего сохранённого черновика. |
Примечание:
Помимо обязательных настроек, не рекомендуется задавать расширенные параметры, так как неправильные настройки могут сделать кластер недоступным, а после создания изменить их нельзя.
Если введённый Key совпадает с ключом параметра по умолчанию, он переопределит стандартную конфигурацию.
Процедура
Параметр | Описание |
---|---|
Docker Parameters |
|
Kubelet Parameters |
Примечание: При вводе параметра Node IP Count в разделе Container Network автоматически создаётся параметр Kubelet с ключом Если добавить новый параметр |
Controller Manager Parameters |
|
Scheduler Parameters |
|
APIServer Parameters |
|
APIServer URL |
|
Cluster Annotations | Аннотации кластера — метаданные в виде ключ-значение, отмечающие характеристики кластера для получения соответствующей информации компонентами платформы или бизнес-компонентами. |
На странице списка кластеров можно просмотреть список созданных кластеров. Для кластеров со статусом Creating доступен просмотр прогресса выполнения.
Процедура
Нажмите маленькую иконку View Execution Progress справа от статуса кластера.
В появившемся диалоговом окне можно просмотреть прогресс выполнения кластера (status.conditions).
Совет: Если какой-либо тип находится в процессе или в состоянии ошибки с причиной, наведите курсор на причину (отображается синим текстом), чтобы увидеть подробную информацию о причине (status.conditions.reason).
После создания кластера вы можете добавить его в проекты в представлении управления проектами.