Создание локального кластера
Содержание
Предварительные требованияТребования к узламБалансировка нагрузкиПодключение кластераglobal и рабочих кластеровРеестр образовСетевое взаимодействие контейнеровПроцедура созданияBasic InfoContainer NetworkNode SettingsExtended ParametersДействия после созданияПросмотр прогресса созданияАссоциация с проектамиПредварительные требования
Требования к узлам
- Если вы скачали установочный пакет для одной архитектуры с Download Installation Package, убедитесь, что архитектура ваших узлов совпадает с архитектурой пакета. В противном случае узлы не запустятся из-за отсутствия образов, специфичных для архитектуры.
- Проверьте, что операционная система и ядро узлов поддерживаются. Подробнее см. Supported OS and Kernels.
- Выполните проверки доступности узлов. Конкретные пункты проверки смотрите в разделе Node Preprocessing > Node Checks.
- Если IP-адреса узлов недоступны напрямую по SSH, предоставьте для узлов SOCKS5-прокси. Кластер
globalбудет обращаться к узлам через этот прокси-сервис.
Балансировка нагрузки
Для производственных сред требуется балансировщик нагрузки для узлов управляющей плоскости кластера для обеспечения высокой доступности.
Если в вашей среде есть аппаратный LoadBalancer, его использование рекомендуется.
Если нет, можно включить Self-built VIP, который обеспечивает программную балансировку нагрузки с помощью keepalived.
Рекомендация: При использовании аппаратного LoadBalancer рекомендуется настраивать Cluster Endpoint с доменным именем. Если VIP аппаратного LoadBalancer изменится после установки кластера, можно обновить DNS-запись вместо перенастройки кластера.
Примечание: Self-built VIP не поддерживает настройку доменного имени.
Балансировщик нагрузки должен корректно перенаправлять трафик на порты 6443, 11780 и 11781 на всех узлах управляющей плоскости кластера.
Если в вашем кластере только один узел управляющей плоскости и вы используете IP этого узла в параметре Cluster Endpoint, то впоследствии масштабировать кластер с одного узла до высокодоступного многозвенного нельзя. Поэтому рекомендуется предоставить балансировщик нагрузки даже для кластеров с одним узлом.
При включении Self-built VIP необходимо подготовить:
- Доступный VRID
- Хостовую сеть с поддержкой протокола VRRP
- Все узлы управляющей плоскости и VIP должны находиться в одной подсети, при этом VIP должен отличаться от IP любого узла.
Подключение кластера global и рабочих кластеров
Платформа требует взаимного доступа между кластером global и рабочими кластерами. Если они находятся в разных сетях, необходимо:
- Обеспечить
External Accessдля рабочего кластера, чтобы кластерglobalмог к нему обращаться. Сетевые требования должны гарантировать доступglobalк портам6443,11780и11781на всех узлах управляющей плоскости. - Добавить дополнительный адрес в
global, доступный для рабочего кластера. При создании рабочего кластера добавьте этот адрес в аннотации кластера с ключомcpaas.io/platform-urlи значением, равным публичному адресу доступа кglobal.
Реестр образов
Образы кластера поддерживают варианты: встроенный в платформу, приватный репозиторий и публичный репозиторий.
- Встроенный в платформу: Используется реестр образов, предоставляемый кластером
global. Если кластер не может получить доступ кglobal, смотрите Add External Address for Built-in Registry. - Приватный репозиторий: Используется ваш собственный реестр образов. Для подробностей о загрузке необходимых образов в ваш реестр обратитесь в техническую поддержку.
- Публичный репозиторий: Используется публичный реестр образов платформы. Перед использованием завершите Updating Public Repository Credentials.
Сетевое взаимодействие контейнеров
Если вы планируете использовать Kube-OVN Underlay для вашего кластера, обратитесь к Preparing Kube-OVN Underlay Physical Network.
Процедура создания
-
Перейдите в представление Administrator и в левом навигационном меню выберите Clusters/Clusters.
-
Нажмите Create Cluster.
-
Настройте следующие разделы согласно инструкциям ниже: Basic Info, Container Network, Node Settings и Extended Parameters.
Basic Info
Container Network
Корпоративная система оркестрации сетей контейнеров Cloud Native Kubernetes, разработанная Alauda. Она переносит зрелые сетевые возможности из области OpenStack в Kubernetes, поддерживает управление сетями в мультиоблачной среде, интеграцию с традиционной сетевой архитектурой и инфраструктурой, а также сценарии развертывания на периферийных кластерах, значительно повышая безопасность, эффективность управления и производительность сетей контейнеров Kubernetes.
Node Settings
Параметры добавления узлов
Extended Parameters
Примечание:
-
За исключением обязательных настроек, не рекомендуется задавать расширенные параметры, так как некорректные настройки могут сделать кластер недоступным, и их нельзя будет изменить после создания кластера.
-
Если введённый Key совпадает с ключом параметра по умолчанию, он переопределит стандартную конфигурацию.
Процедура
- Нажмите Extended Parameters для раскрытия области настройки расширенных параметров. Можно опционально задать следующие параметры для кластера:
- Нажмите Create. Вы вернётесь на страницу списка кластеров, где создаваемый кластер будет иметь статус Creating.
Действия после создания
Просмотр прогресса создания
На странице списка кластеров отображается список созданных кластеров. Для кластеров в состоянии Creating можно проверить ход выполнения.
Процедура
-
Нажмите маленькую иконку View Execution Progress справа от статуса кластера.
-
В появившемся диалоговом окне можно просмотреть прогресс выполнения кластера (status.conditions).
Совет: Если определённый тип находится в процессе или в состоянии ошибки с указанием причины, наведите курсор на причину (отображается синим текстом), чтобы увидеть подробную информацию о причине (status.conditions.reason).
Ассоциация с проектами
После создания кластера его можно добавить в проекты в представлении управления проектами.