logo
Alauda AI
English
Русский
English
Русский
logo
Alauda AI
Навигация

Обзор

Введение
Быстрый старт
Примечания к выпуску

Установка

Предварительная настройка
Установка Alauda AI Essentials
Установка Alauda AI

Обновление

Обновление с AI 1.3

Удаление

Удаление

Управление инфраструктурой

Управление устройствами

О Alauda Build of Hami
О плагине устройства NVIDIA GPU от Alauda Build

Мультиарендность

Руководства

Управление пространствами имён

Рабочее пространство

Обзор

Введение
Установка
Обновление

Как сделать

Создание WorkspaceKind
Создание Workbench

Развертывание модели и вывод

Обзор

Введение
Features

Сервис вывода

Введение

Руководства

Inference Service

Как сделать

Extend Inference Runtimes
Configure External Access for Inference Services
Configure Scaling for Inference Services

Устранение неполадок

Проблемы с таймаутами сервиса инференса при использовании MLServer Runtime
Служба инференса не переходит в состояние Running

Управление моделями

Введение

Руководства

Model Repository

Мониторинг и операции

Обзор

Введение
Features Overview

Ведение журналов и трассировка

Введение

Руководства

Логирование

Мониторинг ресурсов

Введение

Руководства

Мониторинг ресурсов

Справочник API

Введение

Kubernetes APIs

Inference Service APIs

ClusterServingRuntime [serving.kserve.io/v1alpha1]
InferenceService [serving.kserve.io/v1beta1]

Workbench APIs

Workspace Kind [kubeflow.org/v1beta1]
Workspace [kubeflow.org/v1beta1]

Manage APIs

AmlNamespace [manage.aml.dev/v1alpha1]

Operator APIs

AmlCluster [amlclusters.aml.dev/v1alpha1]
Глоссарий
Предыдущая страницаВведение
Следующая страницаСервис вывода

#Features

#Содержание

#Model Management

  • Git-based Model Repository
    Полное решение для хранения с управлением через Git, поддерживающее:

    • Repository Management: создание/удаление репозиториев с метаданными (название/описание/видимость) и проверкой зависимостей
    • File Operations: загрузка через веб-интерфейс для небольших файлов + CLI/Git LFS для больших файлов (например, *.h5, *.bin)
    • Version Control: полный функционал Git, включая:
      • ветвление (например, main/experimental)
      • тегирование (например, v1.0)
      • автоматическую синхронизацию метаданных из README.md
  • MLOps Integration
    Бесшовное подключение рабочих процессов:

    • Развертывание одним кликом в inference services

#Inference Service

  • Direct Model Deployment for Inference Services
    Позволяет пользователям напрямую выбирать конкретные версии моделей из репозитория и указывать образ inference runtime для быстрого развертывания онлайн-сервиса. Система автоматически загружает, кэширует и загружает модель, затем запускает inference service. Это упрощает процесс развертывания и снижает операционную сложность.

  • Custom Image Deployment for Inference Services
    Поддерживает пользователей в написании Dockerfile для упаковки моделей и их зависимостей в кастомные образы, а затем развертывание inference services через стандартные Kubernetes Deployments. Такой подход обеспечивает большую гибкость, позволяя настраивать среду inference в соответствии с потребностями.

  • Inference Service Experience

    • Поддержка пакетных операций над несколькими inference services, таких как массовый запуск, остановка, обновление и удаление.
    • Возможность создания, мониторинга и экспорта результатов пакетных inference задач.
    • Обеспечение пакетного управления ресурсами, позволяющего выделять и корректировать ресурсы inference services массово.