logo
Alauda AI
English
Русский
English
Русский
logo
Alauda AI
Навигация

Обзор

Введение
Быстрый старт
Примечания к выпуску

Установка

Предварительная настройка
Установка Alauda AI Essentials
Установка Alauda AI

Обновление

Обновление с AI 1.3

Удаление

Удаление

Управление инфраструктурой

Управление устройствами

О Alauda Build of Hami
О плагине устройства NVIDIA GPU от Alauda Build

Мультиарендность

Руководства

Управление пространствами имён

Рабочее пространство

Обзор

Введение
Установка
Обновление

Как сделать

Создание WorkspaceKind
Создание Workbench

Развертывание модели и вывод

Обзор

Введение
Features

Сервис вывода

Введение

Руководства

Inference Service

Как сделать

Extend Inference Runtimes
Configure External Access for Inference Services
Configure Scaling for Inference Services

Устранение неполадок

Проблемы с таймаутами сервиса инференса при использовании MLServer Runtime
Служба инференса не переходит в состояние Running

Управление моделями

Введение

Руководства

Model Repository

Мониторинг и операции

Обзор

Введение
Features Overview

Ведение журналов и трассировка

Введение

Руководства

Логирование

Мониторинг ресурсов

Введение

Руководства

Мониторинг ресурсов

Справочник API

Введение

Kubernetes APIs

Inference Service APIs

ClusterServingRuntime [serving.kserve.io/v1alpha1]
InferenceService [serving.kserve.io/v1beta1]

Workbench APIs

Workspace Kind [kubeflow.org/v1beta1]
Workspace [kubeflow.org/v1beta1]

Manage APIs

AmlNamespace [manage.aml.dev/v1alpha1]

Operator APIs

AmlCluster [amlclusters.aml.dev/v1alpha1]
Глоссарий
Предыдущая страницаБыстрый старт
Следующая страницаУстановка

#Примечания к выпуску

#Содержание

#AI 1.4.0

#Новые и оптимизированные функции

#Службы вывода теперь предлагают режимы «Стандартный» и «Расширенный»

При создании службы вывода пользователи теперь могут выбрать либо «Стандартный режим», либо «Расширенный режим», при этом «Стандартный режим» установлен по умолчанию.

  • Стандартный режим: готов к использованию сразу после установки. После успешного развертывания Alauda AI пользователи могут напрямую создавать службу вывода в «Стандартном режиме».
  • Расширенный режим: требует ручного развертывания плагина «Alauda AI Model Serving». Поддерживает безсерверный режим и позволяет создавать службы вывода с возможностью масштабирования до нуля. Этот режим основан на Istio и предоставляет дополнительные метрики мониторинга служб вывода, такие как «Traffic», «QPS» и «Response time».

#Настраиваемые панели мониторинга

Введена новая функция «Dashboards», позволяющая пользователям настраивать и добавлять графики на панели мониторинга в соответствии с их потребностями. Например, проекты, использующие GPU от производителей, отличных от NVIDIA, могут добавлять настраиваемые панели, предоставляемые этими производителями.

#Плагин Workbench

Доступен для установки новый плагин «Alauda AI Workbench», предоставляющий пользователям среды IDE, такие как Jupyter Notebook и VS Code.
Этот плагин заменяет «расширенные» возможности предыдущей версии и упрощает ненужные компоненты и некоторые функции, изначально присутствовавшие в Kubeflow.

#Решение Kubeflow

Запущено нативное решение Kubeflow для удовлетворения потребностей клиентов проектов, привыкших использовать нативные возможности сообщества Kubeflow.

#Решение Multi-Node Multi-GPU

Введено решение с несколькими узлами и несколькими GPU для удовлетворения требований пользователей по развертыванию моделей с большим количеством параметров.

#Решения на основе ноутбуков для предварительного обучения и дообучения

Запущены решения на основе ноутбуков для предварительного обучения и дообучения моделей, поддерживающие пользователей в оптимизации их моделей.

#Решение аутентификации службы вывода

Введено решение аутентификации службы вывода на основе Enovy AI Gateway, поддерживающее создание API Keys для служб вывода с целью повышения возможностей контроля доступа.

#Улучшенный логгинг службы вывода

Функциональность логгирования служб вывода была улучшена, включая такие возможности, как автоматическое обновление логов, приостановка обновлений и переключение контейнеров, что соответствует возможностям Alauda Container Platform.

#Устаревшие функции

#Понижение статуса mlserver Inference Runtime до решения

Из-за ограниченного числа сценариев использования и влияния на пользовательский опыт служб вывода больших моделей, mlserver inference runtime был понижен до решения. Он больше не включается в продукт по умолчанию, но предоставляется как решение для поддержки специфических сценариев, таких как вывод малых языковых моделей.

#Прекращение поддержки функции Apps

Функция Apps и Dify позиционируются как возможности для разработки AI Agent, при этом Dify предлагает более простой подход к разработке благодаря low-code возможностям. В то время как чистая кастомизация и разработка с нуля через Apps менее удобны. Поэтому функция Apps была прекращена. Проекты, требующие чистой кастомной разработки AI Agent, могут быть реализованы через альтернативные решения.

#Прекращение поддержки функции загрузки моделей через UI

Существует два способа загрузки моделей: через команду git push или через UI. Загрузка через командную строку обеспечивает лучшую производительность и более высокую скорость. Несмотря на удобство UI, при работе с большими файлами моделей, обычно размером в несколько сотен ГБ, интерфейс часто зависает. Поэтому функция загрузки моделей через UI была прекращена. Для удобства пользователей добавлена ссылка на документацию вместо оригинальной функции, позволяющая быстро перейти к руководству пользователя по командам для операций.

#Исправленные ошибки

No issues in this release.

#Известные проблемы

  • Modifying library_name in Gitlab by directly editing the readme file does not synchronize the model type change on the page.
    Temporary solution: Use UI operation to modify the library_name to avoid direct operation in Gitlab.