Если ваш GPU не поддерживает CUDA 12.6, вы все равно можете использовать более ранние версии CUDA Toolkit. Однако после развертывания Alauda AI необходимо добавить пользовательский inference runtime, адаптированный для старых версий CUDA. Это можно сделать, обратившись к разделу Extend LLM Inference Runtimes, поскольку встроенный vLLM inference runtime поддерживает только CUDA 12.6 или более поздние версии.
Установка Alauda AI включает следующие основные задачи:
После этого основные возможности Alauda AI будут успешно развернуты. Если вы хотите быстро ознакомиться с продуктом, пожалуйста, обратитесь к разделу Quick Start.