File size: 4,210 Bytes
abf7e2d
 
 
 
 
 
15eb8e6
9610a1f
abf7e2d
 
32a9a14
 
 
 
15eb8e6
32a9a14
 
 
15eb8e6
32a9a14
e944c13
 
32a9a14
 
ef95ed7
 
acc354d
 
ef95ed7
32a9a14
 
 
226a45b
1eabd2a
32a9a14
fc37aae
 
35586f9
fc37aae
edaaa72
60dd419
2af363a
 
 
 
 
 
 
09373b6
 
 
 
72d7d5f
 
 
 
 
 
 
 
09373b6
 
 
32a9a14
 
 
 
 
 
 
 
 
 
 
 
f6a13a1
 
32a9a14
 
 
8b5ec2f
 
 
edaaa72
2522f7d
09373b6
 
 
 
72d7d5f
 
 
 
 
 
 
 
09373b6
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
---
title: README
emoji: 
colorFrom: red
colorTo: gray
sdk: static
pinned: true
short_description: Семейство русскоязычных моделей
---

## 🇷🇺 Русская версия

### О нас

Привет huggingface_чане, мы команда энтузиастов, занимающихся созданием и развитием русифицированных моделей искусственного интеллекта. 💨 Наша цель - сделать последние достижения в области машинного обучения доступными и понятными для русскоязычного сообщества.

### Что мы делаем

- Разработка русскоязычных моделей для обработки естественного языка (когда станем GPU-Rich)
- Адаптация существующих моделей под русский язык
- Собираем собственные бенчмарки и переводим англоязычные
- Собираем и переводим различные датасеты для разных способностей LLM


### У меня есть задача X что следует взять?

Пробуйте [Vikhrmodels/Vistral-24B-Instruct](https://huggingface.co/Vikhrmodels/Vistral-24B-Instruct)
Или [Vikhrmodels/Vikhr-Nemo-12B-Instruct-R-21-09-24](https://huggingface.co/Vikhrmodels/Vikhr-Nemo-12B-Instruct-R-21-09-24)

### Присоединяйтесь к нам!

Если вы также увлечены искусственным интеллектом и хотите внести свой вклад в развитие русифицированных моделей, присоединяйтесь к нашему сообществу!
Вопросы, сотрудничество: [t.me/transformerslovedeatch](https://t.me/transformerslovedeatch)
[хабр](https://habr.com/ru/articles/787894/)


Cообщество:
[https://t.me/vikhrmodels](https://t.me/vikhrlabs/)

Все модели выложены под Apache2.0 

### Задонатить можно:



- Тинькофф сбп:
- -  https://www.tbank.ru/cf/3W1Ko1rj8ah

### Процитировать

Если Вы используете наши модели или код в своих работах, пожалуйста, используйте эту библиографическую ссылку:
```
@misc{nikolich2025vikhrfamilyopensourceinstructiontuned,
      title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian}, 
      author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Igor Kiselev and Artem Shelmanov},
      year={2025},
      eprint={2405.13929},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2405.13929}, 
}
```

---

## 🇺🇸 English Version

### About Us

Hello! We are a team of enthusiasts dedicated to the development and advancement of Russian-localized artificial intelligence models. 💨 Our mission is to make the latest machine learning advancements accessible and comprehensible for the Russian-speaking community.

### What We Do

- Developing Russian language models for natural language processing
- Adapting existing algorithms for the Russian language
- We collect our own benchmarks and translate English-language ones
- We collect and translate various datasets for different LLM abilities

### Join Us!

If you're also passionate about AI and would like to contribute to the development of Russian-localized models, join our community!


Model opensourced with Apache2.0 

### Cite

If you use our models or code, please cite:
```
@misc{nikolich2025vikhrfamilyopensourceinstructiontuned,
      title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian}, 
      author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Igor Kiselev and Artem Shelmanov},
      year={2025},
      eprint={2405.13929},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2405.13929}, 
}
```