logo
Alauda AI
English
Русский
English
Русский
logo
Alauda AI
Навигация

Обзор

Введение
Быстрый старт
Примечания к выпуску

Установка

Предварительная настройка
Установка Alauda AI Essentials
Установка Alauda AI

Обновление

Обновление с AI 1.3

Удаление

Удаление

Управление инфраструктурой

Управление устройствами

О Alauda Build of Hami
О плагине устройства NVIDIA GPU от Alauda Build

Мультиарендность

Руководства

Управление пространствами имён

Рабочее пространство

Обзор

Введение
Установка
Обновление

Как сделать

Создание WorkspaceKind
Создание Workbench

Развертывание модели и вывод

Обзор

Введение
Features

Сервис вывода

Введение

Руководства

Inference Service

Как сделать

Extend Inference Runtimes
Configure External Access for Inference Services
Configure Scaling for Inference Services

Устранение неполадок

Проблемы с таймаутами сервиса инференса при использовании MLServer Runtime
Служба инференса не переходит в состояние Running

Управление моделями

Введение

Руководства

Model Repository

Мониторинг и операции

Обзор

Введение
Features Overview

Ведение журналов и трассировка

Введение

Руководства

Логирование

Мониторинг ресурсов

Введение

Руководства

Мониторинг ресурсов

Справочник API

Введение

Kubernetes APIs

Inference Service APIs

ClusterServingRuntime [serving.kserve.io/v1alpha1]
InferenceService [serving.kserve.io/v1beta1]

Workbench APIs

Workspace Kind [kubeflow.org/v1beta1]
Workspace [kubeflow.org/v1beta1]

Manage APIs

AmlNamespace [manage.aml.dev/v1alpha1]

Operator APIs

AmlCluster [amlclusters.aml.dev/v1alpha1]
Глоссарий
Предыдущая страницаРуководства
Следующая страницаМониторинг ресурсов

#Логирование

#Содержание

#Обзор функции

Функция логирования в Alauda AI позволяет в режиме реального времени отслеживать и анализировать логи, создаваемые подами Inference Service. Эта возможность помогает пользователям устранять неполадки, отслеживать поведение сервиса и обеспечивать эффективность работы, предоставляя мгновенный доступ к критически важным данным логов. Особенно полезна для отладки ошибок инференса моделей.

#Основные возможности

  • Потоковая передача логов в реальном времени: Автоматически отображает логи по мере их генерации выбранным подом.
  • Выбор реплики пода: Переключение между подами для просмотра логов конкретных реплик.
  • Поиск по ключевым словам (Find): Поиск конкретных записей в логах с точным или частичным совпадением ключевых слов.
  • Экспорт логов (Export): Загрузка логов в формате .txt для офлайн-анализа или архивирования.

#Доступ к логам

Выполните следующие шаги, чтобы просмотреть логи Inference Service:

#Шаг 1: Перейдите к Inference Service

  1. Откройте Inference Services в левой навигационной панели.
  2. Нажмите на название нужного Inference Service, чтобы открыть страницу с деталями.

#Шаг 2: Откройте интерфейс логирования

  1. Выберите вкладку Logging на панели вкладок под названием Inference Service.

#Шаг 3: Выберите под

  1. Используйте выпадающий список Replica для выбора пода.
  2. Просмотрщик логов автоматически отобразит и начнет потоковую передачу логов выбранного пода.

#Использование функции Find

Эффективно ищите логи с помощью поиска по ключевым словам:

#Шаг 1: Активируйте поиск

  1. Нажмите кнопку Find в правом верхнем углу просмотрщика логов.

#Шаг 2: Введите поисковый запрос

  1. Введите ключевое слово или фразу в поле поиска.

#Шаг 3: Навигация по результатам

  1. Совпадающие записи выделяются желтым цветом.
  2. Используйте кнопки ↑ и ↓ для перехода между совпадениями.

#Экспорт логов

Экспортируйте логи для офлайн-хранения и анализа:

#Шаг 1: Запустите экспорт

  1. Нажмите кнопку Export в правом верхнем углу просмотрщика логов.

#Шаг 2: Скачайте файл

  1. Браузер автоматически загрузит файл логов на ваш локальный компьютер.