Быстрый старт
В этом разделе представлен пример быстрого старта по созданию AI Agent с помощью Llama Stack.
Содержание
ТребованияПример быстрого стартаFAQКак подготовить Python 3.12 в NotebookДополнительные ресурсыТребования
- Python 3.12 или выше (если не установлен, см. FAQ: Как подготовить Python 3.12 в Notebook)
- Установленный и запущенный Llama Stack Server через Operator (см. Установка Llama Stack)
- Доступ к среде Notebook (например, Jupyter Notebook, JupyterLab)
- Python-среда с установленными
llama-stack-clientи необходимыми зависимостями - API-ключ для провайдера LLM (например, DeepSeek API key)
Пример быстрого старта
Простой пример создания AI Agent с Llama Stack доступен в следующих ресурсах:
- Notebook: Llama Stack Quick Start Demo
Скачайте ноутбук и загрузите его в среду Notebook для запуска.
В ноутбуке демонстрируется:
- Подключение к Llama Stack Server и настройка клиента
- Определение инструмента с помощью декоратора
@client_tool(пример инструмента для запроса погоды) - Подключение клиента к Llama Stack Server
- Выбор модели и создание Agent с инструментами и инструкциями
- Запуск Agent с управлением сессией и потоковой передачей ответов
- Обработка и отображение результатов
- Опциональный пример развертывания с FastAPI
FAQ
Как подготовить Python 3.12 в Notebook
-
Скачайте предварительно скомпилированный пакет установки Python:
-
Распакуйте с помощью:
-
Установите и зарегистрируйте ядро:
-
Переключитесь на ядро в интерфейсе ноутбука:
- Откройте вашу среду Notebook (например, Jupyter Notebook или JupyterLab) в браузере, затем откройте существующий ноутбук или создайте новый.
- В интерфейсе ноутбука найдите название текущего ядра (обычно отображается в правом верхнем углу страницы, например, "Python 3" или "python3").
- Нажмите на название ядра или используйте меню Kernel → Change Kernel.
- В списке ядер выберите "Python 3.12" (название, зарегистрированное на шаге 3).
- После переключения новые ячейки будут выполняться с Python 3.12.
Примечание: При выполнении команд python и pip напрямую в ноутбуке по умолчанию будет использоваться стандартный python. Для использования python312 необходимо указывать полный путь к соответствующим командам.
Дополнительные ресурсы
Для получения дополнительных материалов по разработке AI Agents с Llama Stack смотрите:
- Llama Stack Documentation — Официальная документация Llama Stack, охватывающая все темы использования, провайдеров API и основные концепции.
- Llama Stack Core Concepts — Глубокое погружение в архитектуру Llama Stack, стабильность API и управление ресурсами.
- Llama Stack GitHub Repository — Исходный код, примеры приложений, конфигурации дистрибутивов и инструкции по добавлению новых провайдеров API.
- Llama Stack Example Apps — Официальные примеры, демонстрирующие использование Llama Stack в различных сценариях.