Создание локального кластера
Содержание
Предварительные требования
Требования к узлам
- Если вы скачали пакет установки для одной архитектуры с Download Installation Package, убедитесь, что архитектура ваших узлов совпадает с архитектурой пакета. В противном случае узлы не запустятся из-за отсутствия образов, специфичных для архитектуры.
- Проверьте, что операционная система и ядро узлов поддерживаются. Подробнее см. Supported OS and Kernels.
- Выполните проверки доступности узлов. Конкретные пункты проверки смотрите в разделе Node Preprocessing > Node Checks.
- Если IP-адреса узлов недоступны напрямую по SSH, предоставьте для узлов SOCKS5-прокси. Кластер
globalбудет обращаться к узлам через этот прокси-сервис.
Балансировка нагрузки
Для производственных сред требуется балансировщик нагрузки для узлов управляющей плоскости кластера для обеспечения высокой доступности.
Вы можете использовать собственный аппаратный балансировщик нагрузки или включить Self-built VIP, который обеспечивает программную балансировку нагрузки с помощью haproxy + keepalived.
Рекомендуется использовать аппаратный балансировщик нагрузки, поскольку:
- Лучшая производительность: Аппаратная балансировка работает эффективнее программной.
- Меньшая сложность: Если вы не знакомы с keepalived, ошибки конфигурации могут привести к недоступности кластера, что вызовет длительный поиск и устранение неисправностей и серьезно повлияет на надежность кластера.
При использовании собственного аппаратного балансировщика нагрузки можно указать VIP балансировщика в параметре IP Address / Domain. Если у вас есть доменное имя, которое резолвится в VIP балансировщика, можно использовать это доменное имя в параметре IP Address / Domain.
Примечание:
- Балансировщик должен корректно перенаправлять трафик на порты
6443,11780и11781на всех узлах управляющей плоскости кластера. - Если в кластере только один узел управляющей плоскости и вы используете IP этого узла в качестве
IP Address / Domain, то позднее масштабировать кластер с одного узла до высокодоступного многозвенного нельзя. Поэтому рекомендуется использовать балансировщик нагрузки даже для кластеров с одним узлом.
При включении Self-built VIP необходимо подготовить:
- Доступный VRID
- Сеть хоста, поддерживающую протокол VRRP
- Все узлы управляющей плоскости и VIP должны находиться в одной подсети, при этом VIP должен отличаться от IP-адресов узлов.
Подключение кластера global и рабочих кластеров
Платформа требует взаимного доступа между кластером global и рабочими кластерами. Если они находятся в разных сетях, необходимо:
- Обеспечить
External Accessдля рабочего кластера, чтобы кластерglobalмог к нему обращаться. Сетевые требования:globalдолжен иметь доступ к портам6443,11780и11781на всех узлах управляющей плоскости. - Добавить дополнительный адрес в
global, доступный рабочему кластеру. При создании рабочего кластера добавьте этот адрес в аннотации кластера с ключомcpaas.io/platform-urlи значением, равным публичному адресу доступа кglobal.
Регистры образов
Образы кластера поддерживают варианты: встроенный в платформу, приватный репозиторий и публичный репозиторий.
- Встроенный в платформу: Используется реестр образов, предоставляемый кластером
global. Если кластер не может получить доступ кglobal, см. Add External Address for Built-in Registry. - Приватный репозиторий: Используется ваш собственный реестр образов. Для подробностей о загрузке необходимых образов в ваш реестр обратитесь в техническую поддержку.
- Публичный репозиторий: Используется публичный реестр образов платформы. Перед использованием завершите Updating Public Repository Credentials.
Сетевые настройки контейнеров
Если планируете использовать Kube-OVN Underlay для кластера, обратитесь к Preparing Kube-OVN Underlay Physical Network.
Процедура создания
-
Перейдите в представление Administrator и в левой навигационной панели выберите Clusters/Clusters.
-
Нажмите Create Cluster.
-
Настройте следующие разделы согласно инструкциям ниже: Basic Info, Container Network, Node Settings и Extended Parameters.
Basic Info
Container Network
Корпоративная система оркестрации сетей контейнеров Cloud Native Kubernetes, разработанная Alauda. Переносит зрелые сетевые возможности из OpenStack в Kubernetes, поддерживает управление сетями между облаками, традиционную сетевую архитектуру и межсоединение инфраструктур, сценарии развертывания на периферии, значительно повышая безопасность, эффективность управления и производительность сетей контейнеров Kubernetes.
Node Settings
Параметры добавления узлов
Extended Parameters
Примечание:
-
Помимо обязательных настроек, не рекомендуется задавать расширенные параметры, так как неправильные настройки могут привести к недоступности кластера, а после создания изменить их нельзя.
-
Если введённый Key совпадает с ключом параметра по умолчанию, он переопределит стандартную конфигурацию.
Процедура
- Нажмите Extended Parameters для раскрытия области настройки расширенных параметров. Можно опционально задать следующие параметры:
- Нажмите Create. Вы вернётесь на страницу списка кластеров, где статус кластера будет Creating.
Действия после создания
Просмотр прогресса создания
На странице списка кластеров отображается список созданных кластеров. Для кластеров со статусом Creating можно просмотреть ход выполнения.
Процедура
-
Нажмите на маленький значок View Execution Progress справа от статуса кластера.
-
В появившемся диалоговом окне можно просмотреть прогресс выполнения кластера (status.conditions).
Совет: Если какой-либо тип находится в процессе или в состоянии ошибки с указанием причины, наведите курсор на причину (отображается синим текстом), чтобы увидеть подробную информацию (status.conditions.reason).
Ассоциация с проектами
После создания кластера его можно добавить в проекты в представлении управления проектами.