• Русский
  • Features

    Model Management

    • Git-based Model Repository
      Полное решение для хранения с управлением через Git, поддерживающее:

      • Repository Management: создание/удаление репозиториев с метаданными (название/описание/видимость) и проверкой зависимостей
      • File Operations: загрузка через веб-интерфейс для небольших файлов + CLI/Git LFS для больших файлов (например, *.h5, *.bin)
      • Version Control: полный функционал Git, включая:
        • ветвление (например, main/experimental)
        • тегирование (например, v1.0)
        • автоматическую синхронизацию метаданных из README.md
    • MLOps Integration
      Бесшовное подключение рабочих процессов:

      • Развертывание одним кликом в inference services

    Inference Service

    • Direct Model Deployment for Inference Services
      Позволяет пользователям напрямую выбирать конкретные версии моделей из репозитория и указывать образ inference runtime для быстрого развертывания онлайн-сервиса. Система автоматически загружает, кэширует и загружает модель, затем запускает inference service. Это упрощает процесс развертывания и снижает операционную сложность.

    • Custom Image Deployment for Inference Services
      Поддерживает пользователей в написании Dockerfile для упаковки моделей и их зависимостей в кастомные образы, а затем развертывание inference services через стандартные Kubernetes Deployments. Такой подход обеспечивает большую гибкость, позволяя настраивать среду inference в соответствии с потребностями.

    • Inference Service Experience

      • Поддержка пакетных операций над несколькими inference services, таких как массовый запуск, остановка, обновление и удаление.
      • Возможность создания, мониторинга и экспорта результатов пакетных inference задач.
      • Обеспечение пакетного управления ресурсами, позволяющего выделять и корректировать ресурсы inference services массово.