logo
Alauda AI
English
Русский
English
Русский
logo
Alauda AI
Навигация

Обзор

Введение
Быстрый старт
Примечания к выпуску

Установка

Предварительная настройка
Установка Alauda AI Essentials
Установка Alauda AI

Обновление

Обновление с AI 1.3

Удаление

Удаление

Управление инфраструктурой

Управление устройствами

О Alauda Build of Hami
О плагине устройства NVIDIA GPU от Alauda Build

Мультиарендность

Руководства

Управление пространствами имён

Рабочее пространство

Обзор

Введение
Установка
Обновление

Как сделать

Создание WorkspaceKind
Создание Workbench

Развертывание модели и вывод

Обзор

Введение
Features

Сервис вывода

Введение

Руководства

Inference Service

Как сделать

Extend Inference Runtimes
Configure External Access for Inference Services
Configure Scaling for Inference Services

Устранение неполадок

Проблемы с таймаутами сервиса инференса при использовании MLServer Runtime
Служба инференса не переходит в состояние Running

Управление моделями

Введение

Руководства

Model Repository

Мониторинг и операции

Обзор

Введение
Features Overview

Ведение журналов и трассировка

Введение

Руководства

Логирование

Мониторинг ресурсов

Введение

Руководства

Мониторинг ресурсов

Справочник API

Введение

Kubernetes APIs

Inference Service APIs

ClusterServingRuntime [serving.kserve.io/v1alpha1]
InferenceService [serving.kserve.io/v1beta1]

Workbench APIs

Workspace Kind [kubeflow.org/v1beta1]
Workspace [kubeflow.org/v1beta1]

Manage APIs

AmlNamespace [manage.aml.dev/v1alpha1]

Operator APIs

AmlCluster [amlclusters.aml.dev/v1alpha1]
Глоссарий
Предыдущая страницаОбновление
Следующая страницаУдаление

#Обновление с AI 1.3

#Содержание

#Перед обновлением

#Сохранение Inference Service Runtimes

Этот шаг гарантирует, что старые ресурсы ClusterServingRuntime не будут случайно удалены в процессе обновления. Скрипт добавляет аннотацию "helm.sh/resource-policy": "keep" ко всем ресурсам ClusterServingRuntime, что указывает Helm сохранить их при обновлении.

Выполните следующий скрипт в целевом кластере:

migrate-clusterservingruntime-resources.sh
#!/bin/bash
set -e

# Check if kubectl is installed
if ! command -v kubectl &> /dev/null; then
    echo "Error: kubectl not found. Please install kubectl and ensure it is in your PATH."
    exit 1
fi

echo "Fetching all ClusterServingRuntime resources and checking for annotations..."

kubectl get clusterservingruntime --no-headers -o name | while read -r name; do

    if kubectl get "$name" -o yaml | grep -q 'helm.sh/resource-policy: keep'; then
        echo "ClusterServingRuntime $name already has the 'helm.sh/resource-policy: keep' annotation. Skipping."
    else
        echo "ClusterServingRuntime $name does not have the 'helm.sh/resource-policy: keep' annotation. Patching..."

        kubectl patch "$name" \
            --type=merge \
            -p '{"metadata":{"annotations":{"helm.sh/resource-policy": "keep"}}}'

        echo "Successfully patched $name."
    fi
done

echo "migrate-clusterservingruntime-resources completed."

#Миграция ресурсов InferenceService

До версии Alauda AI 1.4 ресурсы InferenceService не указывали явно режим развертывания. Теперь перед обновлением необходимо явно определить режим развертывания для всех ваших inference сервисов.

WARNING

Эта миграция обновляет ваши inference сервисы. В режиме Knative Serverless это вызывает rolling update: создаётся новая revision, а старая удаляется только после того, как новая станет Ready.

Если сервис может испытывать ограничения по ресурсам (GPU/CPU/память), запланируйте окно обслуживания или временно остановите сервис перед запуском скрипта.

Выполните следующий скрипт в целевом кластере:

migrate-inferenceservice-resources.sh
#!/bin/bash

set -e

kubectl get inferenceservice --all-namespaces -o custom-columns=NAMESPACE:.metadata.namespace,NAME:.metadata.name --no-headers | while read -r namespace name; do

    if kubectl get inferenceservice "$name" -n "$namespace" -o yaml | grep -q 'serving.kserve.io/deploymentMode:' ; then
        echo "InferenceService ${namespace}/${name} already has 'serving.kserve.io/deploymentMode' annotation. Skipping."
    else
        echo "InferenceService ${namespace}/${name} does not have 'serving.kserve.io/deploymentMode' annotation. Patching..."

        kubectl patch inferenceservice "$name" -n "$namespace" --type=merge -p '{"metadata":{"annotations":{"serving.kserve.io/deploymentMode": "Serverless"}}}'

        echo "Successfully patched ${namespace}/${name}."
    fi
done

echo "migrate-inferenceservice-resources completed."

#Установка компонентов кластера Alauda AI

Пожалуйста, посетите Alauda AI Cluster для:

WARNING

Игнорируйте раздел Creating Alauda AI Cluster Instance, так как мы обновляем Alauda AI с ранее управляемой версии.

  1. Загрузка пакетов операторов для Alauda AI Cluster и KServeless.
  2. Загрузка пакетов операторов в целевой кластер.
  3. Для обновления следуйте описанному ниже процессу.

#Обновление

Ниже описана процедура обновления с AI 1.3 до Alauda AI 1.4.

#Обновление Alauda AI Essentials

Alauda AI Essentials будет обновлен вместе с функциональными компонентами глобального кластера.

В представлении Administrator перейдите в Clusters / Cluster в левой навигации, найдите кластер global в правой панели и нажмите кнопку Upgrade на вкладке Functional Components, чтобы запустить обновление.

INFO

Все компоненты, требующие обновления, включая Alauda AI Essentials, будут обновлены одновременно и не могут быть обновлены по отдельности.

После завершения обновления убедитесь, что статус Alauda AI Essentials в списке — Running, а версия — v1.4.x.

#Обновление операторов Alauda AI

Процедура обновления обоих операторов практически идентична, отличается только целевой компонент.

ШагAlauda AI OperatorAlauda AI Model Serving Operator
1. ПерейтиВойдите в Web Console, затем перейдите в Marketplace > OperatorHub в представлении Administrator.Войдите в Web Console, затем перейдите в Marketplace > OperatorHub в представлении Administrator.
2. ВыбратьВыберите целевой кластер.Выберите целевой кластер.
3. НажатьНажмите на карточку Alauda AI.Нажмите на карточку Alauda AI Model Serving.
4. ПодтвердитьНажмите Confirm в окне подтверждения обновления.Нажмите Confirm в окне подтверждения обновления.
INFO

После загрузки новой версии и её распознавания платформой, в верхней части страницы оператора появится запрос на обновление.

#Проверка

#Alauda AI

Проверьте поле статуса ресурса AmlCluster с именем default:

kubectl get amlcluster default

Должно вернуть Ready:

NAME      READY   REASON
default   True    Succeeded

#Alauda AI Model Serving

Проверьте поле статуса ресурса KnativeServing с именем default-knative-serving:

kubectl get KnativeServing.components.aml.dev default-knative-serving

Должно вернуть InstallSuccessful:

NAME                      DEPLOYED   REASON
default-knative-serving   True       UpgradeSuccessful