Интеграция с InferenceService
На этой странице показано, как использовать возможности планирования и управления ресурсами Alauda Build of Kueue при запуске inferenceService в Alauda AI.
Предварительные требования
- У вас установлен Alauda AI.
- У вас установлен Alauda Build of Kueue.
- У вас установлен Alauda Build of Hami (для демонстрации vGPU).
- Веб-CLI Alauda Container Platform имеет связь с вашим кластером.
Процедура
-
Создайте проект и namespace в Alauda Container Platform, например, имя проекта —
test, а имя namespace —test-1. -
Перейдите в Alauda AI, нажмите Namespace Manage в разделе Admin > Management Namespace и выберите ранее созданный namespace для завершения управления.
-
Создайте ресурсы, выполнив следующую команду:
-
Создайте ресурс
InferenceServiceв интерфейсе Alauda AI с меткойkueue.x-k8s.io/queue-name: test: -
Наблюдайте за pod-ами
InferenceService:Вы увидите, что этот pod находится в состоянии
SchedulingGated: -
Обновите квоты
nvidia.com/total-gpucores:Вы увидите, что этот pod находится в состоянии
Running: