logo
Alauda AI
English
Русский
English
Русский
logo
Alauda AI
Навигация

Обзор

Введение
Быстрый старт
Примечания к выпуску

Установка

Предварительная настройка
Установка Alauda AI Essentials
Установка Alauda AI

Обновление

Обновление с AI 1.3

Удаление

Удаление

Управление инфраструктурой

Управление устройствами

О Alauda Build of Hami
О плагине устройства NVIDIA GPU от Alauda Build

Мультиарендность

Руководства

Управление пространствами имён

Рабочее пространство

Обзор

Введение
Установка
Обновление

Как сделать

Создание WorkspaceKind
Создание Workbench

Развертывание модели и вывод

Обзор

Введение
Features

Сервис вывода

Введение

Руководства

Inference Service

Как сделать

Extend Inference Runtimes
Configure External Access for Inference Services
Configure Scaling for Inference Services

Устранение неполадок

Проблемы с таймаутами сервиса инференса при использовании MLServer Runtime
Служба инференса не переходит в состояние Running

Управление моделями

Введение

Руководства

Model Repository

Мониторинг и операции

Обзор

Введение
Features Overview

Ведение журналов и трассировка

Введение

Руководства

Логирование

Мониторинг ресурсов

Введение

Руководства

Мониторинг ресурсов

Справочник API

Введение

Kubernetes APIs

Inference Service APIs

ClusterServingRuntime [serving.kserve.io/v1alpha1]
InferenceService [serving.kserve.io/v1beta1]

Workbench APIs

Workspace Kind [kubeflow.org/v1beta1]
Workspace [kubeflow.org/v1beta1]

Manage APIs

AmlNamespace [manage.aml.dev/v1alpha1]

Operator APIs

AmlCluster [amlclusters.aml.dev/v1alpha1]
Глоссарий
Предыдущая страницаПримечания к выпуску
Следующая страницаПредварительная настройка

#Установка

#Содержание

#Требования

#Аппаратное обеспечение

  • Не менее двух узлов с общим количеством 16 ядер и 32 ГБ памяти.
  • Дополнительные ресурсы для выполнения runtime определяются фактическим масштабом бизнеса: 10 экземпляров LLM inference размера 7B одновременно требуют не менее 10 GPU и соответствующих CPU, памяти, дискового пространства и объектного хранилища.
  • 200 ГБ свободного дискового пространства на каждом рабочем узле.

#Программное обеспечение

  • Версия CUDA Toolkit: 12.6 или выше.
INFO

Если ваш GPU не поддерживает CUDA 12.6, вы все равно можете использовать более ранние версии CUDA Toolkit. Однако после развертывания Alauda AI необходимо добавить пользовательский inference runtime, адаптированный для старых версий CUDA. Это можно сделать, обратившись к разделу Extend LLM Inference Runtimes, поскольку встроенный vLLM inference runtime поддерживает только CUDA 12.6 или более поздние версии.

#Установка

Установка Alauda AI включает следующие основные задачи:

  1. Подтвердите и настройте ваш кластер для соответствия всем требованиям. См. Pre-installation Configuration.
  2. Установите Alauda AI Essentials. См. Install Alauda AI Essentials.
  3. Установите Alauda AI. См. Install Alauda AI.

После этого основные возможности Alauda AI будут успешно развернуты. Если вы хотите быстро ознакомиться с продуктом, пожалуйста, обратитесь к разделу Quick Start.

Предварительная настройка

  • Развертывание Service Mesh
  • Подготовка сервиса GitLab

Установка Alauda AI Essentials

  • Загрузка
  • Загрузка на платформу
  • Установка

Установка Alauda AI

  • Загрузка
  • Загрузка в кластер
  • Установка Alauda AI Operator
  • Создание экземпляра Alauda AI
  • Включение функциональности Serverless
  • Замена GitLab Service после установки