• Русский
  • Конфигурация

    Все конфигурации, описанные в этой статье, применяются на стороне бизнес-приложения.

    Конфигурации Pod: Аннотации

    ArgumentTypeDescriptionExample
    nvidia.com/use-gpuuuidStringЕсли задано, устройства, выделенные этому Pod, должны быть одним из UUID, указанных в этой строке."GPU-AAA,GPU-BBB"
    nvidia.com/nouse-gpuuuidStringЕсли задано, устройства, выделенные этому Pod, НЕ должны входить в UUID, указанные в этой строке."GPU-AAA,GPU-BBB"
    nvidia.com/nouse-gputypeStringЕсли задано, устройства, выделенные этому Pod, НЕ должны входить в типы, указанные в этой строке."Tesla V100-PCIE-32GB, NVIDIA A10"
    nvidia.com/use-gputypeStringЕсли задано, устройства, выделенные этому Pod, ДОЛЖНЫ быть одним из типов, указанных в этой строке."Tesla V100-PCIE-32GB, NVIDIA A10"
    hami.io/node-scheduler-policyStringПолитика планирования GPU-узлов: "binpack" назначает Pod для выполнения на уже используемые GPU-узлы. "spread" назначает Pod для выполнения на разные GPU-узлы."binpack" or "spread"
    hami.io/gpu-scheduler-policyStringПолитика планирования GPU: "binpack" назначает Pod для выполнения на ту же GPU-карту. "spread" назначает Pod для выполнения на разные GPU-карты."binpack" or "spread"
    nvidia.com/vgpu-modeStringТип экземпляра vGPU, который этот Pod хочет использовать."hami-core" or "mig"

    Конфигурации контейнера: Env

    ArgumentTypeDescriptionDefault
    GPU_CORE_UTILIZATION_POLICYStringОпределяет политику использования GPU core:
    - "default": Политика использования по умолчанию.
    - "force": Ограничивает использование core значением ниже "nvidia.com/gpucores".
    - "disable": Игнорирует ограничение на использование, заданное "nvidia.com/gpucores", во время выполнения задачи.
    "default"
    CUDA_DISABLE_CONTROLBooleanЕсли "true", HAMi-core не будет использоваться внутри контейнера, что приведет к отсутствию изоляции и ограничений ресурсов (для целей отладки).false