Git-based Model Repository
Полное решение для хранения с управлением через Git, поддерживающее:
*.h5, *.bin)main/experimental)v1.0)README.mdMLOps Integration
Бесшовное подключение рабочих процессов:
Direct Model Deployment for Inference Services
Позволяет пользователям напрямую выбирать конкретные версии моделей из репозитория и указывать образ inference runtime для быстрого развертывания онлайн-сервиса. Система автоматически загружает, кэширует и загружает модель, затем запускает inference service. Это упрощает процесс развертывания и снижает операционную сложность.
Custom Image Deployment for Inference Services
Поддерживает пользователей в написании Dockerfile для упаковки моделей и их зависимостей в кастомные образы, а затем развертывание inference services через стандартные Kubernetes Deployments. Такой подход обеспечивает большую гибкость, позволяя настраивать среду inference в соответствии с потребностями.
Inference Service Experience