Spaces:
Running
Running
File size: 4,210 Bytes
abf7e2d 15eb8e6 9610a1f abf7e2d 32a9a14 15eb8e6 32a9a14 15eb8e6 32a9a14 e944c13 32a9a14 ef95ed7 acc354d ef95ed7 32a9a14 226a45b 1eabd2a 32a9a14 fc37aae 35586f9 fc37aae edaaa72 60dd419 2af363a 09373b6 72d7d5f 09373b6 32a9a14 f6a13a1 32a9a14 8b5ec2f edaaa72 2522f7d 09373b6 72d7d5f 09373b6 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 | ---
title: README
emoji: ⚡
colorFrom: red
colorTo: gray
sdk: static
pinned: true
short_description: Семейство русскоязычных моделей
---
## 🇷🇺 Русская версия
### О нас
Привет huggingface_чане, мы команда энтузиастов, занимающихся созданием и развитием русифицированных моделей искусственного интеллекта. 💨 Наша цель - сделать последние достижения в области машинного обучения доступными и понятными для русскоязычного сообщества.
### Что мы делаем
- Разработка русскоязычных моделей для обработки естественного языка (когда станем GPU-Rich)
- Адаптация существующих моделей под русский язык
- Собираем собственные бенчмарки и переводим англоязычные
- Собираем и переводим различные датасеты для разных способностей LLM
### У меня есть задача X что следует взять?
Пробуйте [Vikhrmodels/Vistral-24B-Instruct](https://huggingface.co/Vikhrmodels/Vistral-24B-Instruct)
Или [Vikhrmodels/Vikhr-Nemo-12B-Instruct-R-21-09-24](https://huggingface.co/Vikhrmodels/Vikhr-Nemo-12B-Instruct-R-21-09-24)
### Присоединяйтесь к нам!
Если вы также увлечены искусственным интеллектом и хотите внести свой вклад в развитие русифицированных моделей, присоединяйтесь к нашему сообществу!
Вопросы, сотрудничество: [t.me/transformerslovedeatch](https://t.me/transformerslovedeatch)
[хабр](https://habr.com/ru/articles/787894/)
Cообщество:
[https://t.me/vikhrmodels](https://t.me/vikhrlabs/)
Все модели выложены под Apache2.0
### Задонатить можно:
- Тинькофф сбп:
- - https://www.tbank.ru/cf/3W1Ko1rj8ah
### Процитировать
Если Вы используете наши модели или код в своих работах, пожалуйста, используйте эту библиографическую ссылку:
```
@misc{nikolich2025vikhrfamilyopensourceinstructiontuned,
title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian},
author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Igor Kiselev and Artem Shelmanov},
year={2025},
eprint={2405.13929},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2405.13929},
}
```
---
## 🇺🇸 English Version
### About Us
Hello! We are a team of enthusiasts dedicated to the development and advancement of Russian-localized artificial intelligence models. 💨 Our mission is to make the latest machine learning advancements accessible and comprehensible for the Russian-speaking community.
### What We Do
- Developing Russian language models for natural language processing
- Adapting existing algorithms for the Russian language
- We collect our own benchmarks and translate English-language ones
- We collect and translate various datasets for different LLM abilities
### Join Us!
If you're also passionate about AI and would like to contribute to the development of Russian-localized models, join our community!
Model opensourced with Apache2.0
### Cite
If you use our models or code, please cite:
```
@misc{nikolich2025vikhrfamilyopensourceinstructiontuned,
title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian},
author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Igor Kiselev and Artem Shelmanov},
year={2025},
eprint={2405.13929},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2405.13929},
}
``` |