logo
Alauda AI
English
Русский
English
Русский
logo
Alauda AI
Навигация

Обзор

Введение
Быстрый старт
Примечания к выпуску

Установка

Предварительная настройка
Установка Alauda AI Essentials
Установка Alauda AI

Обновление

Обновление с AI 1.3

Удаление

Удаление

Управление инфраструктурой

Управление устройствами

О Alauda Build of Hami
О плагине устройства NVIDIA GPU от Alauda Build

Мультиарендность

Руководства

Управление пространствами имён

Рабочее пространство

Обзор

Введение
Установка
Обновление

Как сделать

Создание WorkspaceKind
Создание Workbench

Развертывание модели и вывод

Обзор

Введение
Features

Сервис вывода

Введение

Руководства

Inference Service

Как сделать

Extend Inference Runtimes
Configure External Access for Inference Services
Configure Scaling for Inference Services

Устранение неполадок

Проблемы с таймаутами сервиса инференса при использовании MLServer Runtime
Служба инференса не переходит в состояние Running

Управление моделями

Введение

Руководства

Model Repository

Мониторинг и операции

Обзор

Введение
Features Overview

Ведение журналов и трассировка

Введение

Руководства

Логирование

Мониторинг ресурсов

Введение

Руководства

Мониторинг ресурсов

Справочник API

Введение

Kubernetes APIs

Inference Service APIs

ClusterServingRuntime [serving.kserve.io/v1alpha1]
InferenceService [serving.kserve.io/v1beta1]

Workbench APIs

Workspace Kind [kubeflow.org/v1beta1]
Workspace [kubeflow.org/v1beta1]

Manage APIs

AmlNamespace [manage.aml.dev/v1alpha1]

Operator APIs

AmlCluster [amlclusters.aml.dev/v1alpha1]
Глоссарий
Предыдущая страницаОбзор
Следующая страницаFeatures

#Введение

#Содержание

#Управление моделями

Model Repository — это версионированное хранилище и центр управления, разработанный специально для моделей LLM на платформе Alauda AI. Основанный на технологии Git LFS, он обеспечивает эффективное и надежное хранение моделей, охватывая ключевые этапы, такие как развертывание сервиса вывода, дообучение моделей и их оценка. С помощью Model Repository пользователи могут легко управлять версиями моделей, обмениваться модельными ресурсами и осуществлять полное управление жизненным циклом моделей.

#Сервис вывода

Inference Service — это ключевая функция платформы Alauda AI, предназначенная для эффективного развертывания моделей LLM в виде онлайн-сервисов вывода, поддерживающих различные методы вызова, такие как HTTP API и gRPC. С помощью Inference Service пользователи могут быстро создавать приложения на базе LLM и предоставлять внешние стабильные и высокопроизводительные возможности LLM.