metadata
license: apache-2.0
language:
- en
- ru
base_model: Vikhrmodels/Vistral-24B-Instruct
base_model_relation: quantized
pipeline_tag: text-generation
Vistral-24B-Instruct (AWQ Quantized)
Описание
Это квантизированная версия модели Vikhrmodels/Vistral-24B-Instruct.
- Базовая модель: Vistral-24B-Instruct
- Метод квантизации: AWQ (4-bit)