Примечания к выпуску
Содержание
AI 1.4.0Новые и оптимизированные функцииСлужбы вывода теперь предлагают режимы «Стандартный» и «Расширенный»Настраиваемые панели мониторингаПлагин WorkbenchРешение KubeflowРешение Multi-Node Multi-GPUРешения на основе ноутбуков для предварительного обучения и дообученияРешение аутентификации службы выводаУлучшенный логгинг службы выводаУстаревшие функцииПонижение статуса mlserver Inference Runtime до решенияПрекращение поддержки функции AppsПрекращение поддержки функции загрузки моделей через UIИсправленные ошибкиИзвестные проблемыAI 1.4.0
Новые и оптимизированные функции
Службы вывода теперь предлагают режимы «Стандартный» и «Расширенный»
При создании службы вывода пользователи теперь могут выбрать либо «Стандартный режим», либо «Расширенный режим», при этом «Стандартный режим» установлен по умолчанию.
- Стандартный режим: готов к использованию сразу после установки. После успешного развертывания Alauda AI пользователи могут напрямую создавать службу вывода в «Стандартном режиме».
- Расширенный режим: требует ручного развертывания плагина «Alauda AI Model Serving». Поддерживает безсерверный режим и позволяет создавать службы вывода с возможностью масштабирования до нуля. Этот режим основан на Istio и предоставляет дополнительные метрики мониторинга служб вывода, такие как «Traffic», «QPS» и «Response time».
Настраиваемые панели мониторинга
Введена новая функция «Dashboards», позволяющая пользователям настраивать и добавлять графики на панели мониторинга в соответствии с их потребностями. Например, проекты, использующие GPU от производителей, отличных от NVIDIA, могут добавлять настраиваемые панели, предоставляемые этими производителями.
Плагин Workbench
Доступен для установки новый плагин «Alauda AI Workbench», предоставляющий пользователям среды IDE, такие как Jupyter Notebook и VS Code.
Этот плагин заменяет «расширенные» возможности предыдущей версии и упрощает ненужные компоненты и некоторые функции, изначально присутствовавшие в Kubeflow.
Решение Kubeflow
Запущено нативное решение Kubeflow для удовлетворения потребностей клиентов проектов, привыкших использовать нативные возможности сообщества Kubeflow.
Решение Multi-Node Multi-GPU
Введено решение с несколькими узлами и несколькими GPU для удовлетворения требований пользователей по развертыванию моделей с большим количеством параметров.
Решения на основе ноутбуков для предварительного обучения и дообучения
Запущены решения на основе ноутбуков для предварительного обучения и дообучения моделей, поддерживающие пользователей в оптимизации их моделей.
Решение аутентификации службы вывода
Введено решение аутентификации службы вывода на основе Enovy AI Gateway, поддерживающее создание API Keys для служб вывода с целью повышения возможностей контроля доступа.
Улучшенный логгинг службы вывода
Функциональность логгирования служб вывода была улучшена, включая такие возможности, как автоматическое обновление логов, приостановка обновлений и переключение контейнеров, что соответствует возможностям Alauda Container Platform.
Устаревшие функции
Понижение статуса mlserver Inference Runtime до решения
Из-за ограниченного числа сценариев использования и влияния на пользовательский опыт служб вывода больших моделей, mlserver inference runtime был понижен до решения. Он больше не включается в продукт по умолчанию, но предоставляется как решение для поддержки специфических сценариев, таких как вывод малых языковых моделей.
Прекращение поддержки функции Apps
Функция Apps и Dify позиционируются как возможности для разработки AI Agent, при этом Dify предлагает более простой подход к разработке благодаря low-code возможностям. В то время как чистая кастомизация и разработка с нуля через Apps менее удобны. Поэтому функция Apps была прекращена. Проекты, требующие чистой кастомной разработки AI Agent, могут быть реализованы через альтернативные решения.
Прекращение поддержки функции загрузки моделей через UI
Существует два способа загрузки моделей: через команду git push или через UI. Загрузка через командную строку обеспечивает лучшую производительность и более высокую скорость. Несмотря на удобство UI, при работе с большими файлами моделей, обычно размером в несколько сотен ГБ, интерфейс часто зависает. Поэтому функция загрузки моделей через UI была прекращена. Для удобства пользователей добавлена ссылка на документацию вместо оригинальной функции, позволяющая быстро перейти к руководству пользователя по командам для операций.
Исправленные ошибки
No issues in this release.
Известные проблемы
- When updating the inference service resource yaml through the page, the volumeMount field is missing, which can cause the inference service to fail to start properly
- After updating the Alauda AI name in the Platform Parameters submenu of the Platform Settings in the Administrator view, the name of the Alauda AI platform is not correctly changed.
- Modifying library_name in Gitlab by directly editing the readme file does not synchronize the model type change on the page.
Temporary solution: Use UI operation to modify the library_name to avoid direct operation in Gitlab.