#Конфигурация
Конфигурации, описанные в этой статье, относятся исключительно к стороне бизнес-приложения.
#Содержание
#Конфигурации Pod: Аннотации
| Аргумент | Тип | Описание | Пример |
|---|---|---|---|
nvidia.com/use-gpuuuid | String | Если задано, устройства, выделенные этому pod, должны быть одним из UUID, определённых в этой строке. | "GPU-AAA,GPU-BBB" |
nvidia.com/nouse-gpuuuid | String | Если задано, устройства, выделенные этому pod, НЕ будут входить в UUID, определённые в этой строке. | "GPU-AAA,GPU-BBB" |
nvidia.com/nouse-gputype | String | Если задано, устройства, выделенные этому pod, НЕ будут входить в типы, определённые в этой строке. | "Tesla V100-PCIE-32GB, NVIDIA A10" |
nvidia.com/use-gputype | String | Если задано, устройства, выделенные этому pod, ДОЛЖНЫ быть одним из типов, определённых в этой строке. | "Tesla V100-PCIE-32GB, NVIDIA A10" |
hami.io/node-scheduler-policy | String | Политика планирования узлов GPU: "binpack" выделяет pod на уже используемых GPU-узлах для выполнения. "spread" распределяет pod по разным GPU-узлам. | "binpack" или "spread" |
hami.io/gpu-scheduler-policy | String | Политика планирования GPU: "binpack" выделяет pod на одной и той же GPU-карте для выполнения. "spread" распределяет pod по разным GPU-картам. | "binpack" или "spread" |
nvidia.com/vgpu-mode | String | Тип vGPU-инстанса, который этот pod хочет использовать. | "hami-core" или "mig" |
#Конфигурации контейнера: Env
| Аргумент | Тип | Описание | Значение по умолчанию |
|---|---|---|---|
GPU_CORE_UTILIZATION_POLICY | String | Определяет политику использования ядер GPU: - "default": Политика использования по умолчанию.- "force": Ограничивает использование ядер ниже значения "nvidia.com/gpucores".- "disable": Игнорирует ограничение использования, заданное "nvidia.com/gpucores", во время выполнения задачи. | "default" |
CUDA_DISABLE_CONTROL | Boolean | Если "true", HAMi-core не будет использоваться внутри контейнера, что приведёт к отсутствию изоляции и ограничения ресурсов (для целей отладки). | false |