Введение
Содержание
ПредисловиеLLM Compressor поддерживает широкий спектр техник сжатия:LLM Compressor поддерживает несколько алгоритмов сжатия:Предисловие
LLM Compressor, являющийся частью проекта vLLM для эффективного обслуживания LLM, объединяет последние исследования в области сжатия моделей в единую библиотеку с открытым исходным кодом, позволяющую с минимальными усилиями создавать эффективные сжатые модели.
Фреймворк позволяет пользователям применять новейшие методы сжатия моделей для повышения эффективности, масштабируемости и производительности генеративных AI (gen AI) моделей при сохранении точности. Благодаря нативной поддержке Hugging Face и vLLM, сжатые модели можно интегрировать в конвейеры развертывания, обеспечивая более быструю и экономичную работу на масштабах.
LLM Compressor позволяет выполнять оптимизацию моделей с помощью таких техник, как квантизация, разреженность и сжатие, чтобы уменьшить использование памяти, размер модели и улучшить вывод без потери точности ответов модели. LLM Compressor поддерживает следующие методы сжатия:
- Квантизация: преобразует веса и активации модели в форматы с меньшим числом бит, например int8, снижая использование памяти.
- Разреженность: обнуляет часть весов модели, часто по фиксированным шаблонам, что позволяет более эффективно выполнять вычисления.
- Сжатие: уменьшает размер сохранённого файла модели, желательно с минимальным влиянием на производительность.
Используйте эти методы совместно для более эффективного развертывания моделей на оборудовании с ограниченными ресурсами.
LLM Compressor поддерживает широкий спектр техник сжатия:
- Квантизация только весов (W4A16) сжимает веса модели до 4-битной точности, что полезно для AI-приложений с ограниченными аппаратными ресурсами или высокой чувствительностью к задержкам.
- Квантизация весов и активаций (W8A8) сжимает как веса, так и активации до 8-битной точности, ориентируясь на общие серверные сценарии для целочисленных и с плавающей точкой форматов.
LLM Compressor поддерживает несколько алгоритмов сжатия:
- AWQ: квантизация только весов
INT4 - GPTQ: квантизация только весов
INT4 - FP8: динамическая квантизация на уровне токена
- SparseGPT: разреженность после обучения
- SmoothQuant: квантизация активаций
Для получения дополнительной информации о алгоритмах и форматах сжатия, пожалуйста, обратитесь к документации и примерам в репозитории llmcompressor. Каждый из этих методов сжатия вычисляет оптимальные масштабы и нулевые точки для весов и активаций. Оптимизированные масштабы могут задаваться для всего тензора, канала, группы или токена. В итоге получается сжатая модель, сохранённая со всеми применёнными параметрами квантизации.