Update README.md
Browse files
README.md
CHANGED
|
@@ -22,12 +22,29 @@ base_model:
|
|
| 22 |
Благодаря новому токенизатору (расширенный tiktoken cl100k с помощью униграм токенизатора на 48 т. токенов) скорость генерации* русскоязычных текстов возрасла **до 100%** (в зависимости от длины контекста) по сравнению с исходной моделью.
|
| 23 |
|
| 24 |
**Под скоростью генерации подразумевается количество русскоязычных символов/слов в секунду на одинаковых текстовых последовательностях.*
|
|
|
|
| 25 |
## Важно
|
| 26 |
|
| 27 |
**Веса модели могут обновляться** по мере получения новых версий. Информацию о версиях будет в самом конце README, там же фиксируются **даты** и **коммиты** версий, чтобы всегда можно было использовать предыдущие варианты при необходимости.
|
| 28 |
|
| 29 |
Ответы модели не отражают мнения авторов, а лишь повторяют знания полученные из данных на всех этапах обучения (предобучение, смена токенизатора, обучение на инструкциях, калибровка качества ответов). Модель была получена из сторонней предобученной модели, **контроль за предобучением** которой **не является ответственностью текущих авторов**. При создании данной версии модели не производилось никаких дополнительных действий, направленных на изменение заложенных в LLM "мнений". Используйте с осторожностью.
|
| 30 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 31 |
# EN
|
| 32 |
|
| 33 |
## Model Description
|
|
|
|
| 22 |
Благодаря новому токенизатору (расширенный tiktoken cl100k с помощью униграм токенизатора на 48 т. токенов) скорость генерации* русскоязычных текстов возрасла **до 100%** (в зависимости от длины контекста) по сравнению с исходной моделью.
|
| 23 |
|
| 24 |
**Под скоростью генерации подразумевается количество русскоязычных символов/слов в секунду на одинаковых текстовых последовательностях.*
|
| 25 |
+
|
| 26 |
## Важно
|
| 27 |
|
| 28 |
**Веса модели могут обновляться** по мере получения новых версий. Информацию о версиях будет в самом конце README, там же фиксируются **даты** и **коммиты** версий, чтобы всегда можно было использовать предыдущие варианты при необходимости.
|
| 29 |
|
| 30 |
Ответы модели не отражают мнения авторов, а лишь повторяют знания полученные из данных на всех этапах обучения (предобучение, смена токенизатора, обучение на инструкциях, калибровка качества ответов). Модель была получена из сторонней предобученной модели, **контроль за предобучением** которой **не является ответственностью текущих авторов**. При создании данной версии модели не производилось никаких дополнительных действий, направленных на изменение заложенных в LLM "мнений". Используйте с осторожностью.
|
| 31 |
|
| 32 |
+
## Гибридрый ризонер
|
| 33 |
+
|
| 34 |
+
Модель, как и ее исходная версия, является гибридным ризонером. По умолчанию модель работает с включенным режимом размышлений.
|
| 35 |
+
Чтобы отключить режим рассуждений, добавьте в конец последнего сообщения токен /no_think.
|
| 36 |
+
Чтобы обратно его включить, добавьте /think.
|
| 37 |
+
|
| 38 |
+
Альтернативный способ при работе с моделью напрямую:
|
| 39 |
+
```python
|
| 40 |
+
text = tokenizer.apply_chat_template(
|
| 41 |
+
messages,
|
| 42 |
+
tokenize=False,
|
| 43 |
+
add_generation_prompt=True,
|
| 44 |
+
enable_thinking=False # Setting enable_thinking=False disables thinking mode
|
| 45 |
+
)
|
| 46 |
+
|
| 47 |
+
|
| 48 |
# EN
|
| 49 |
|
| 50 |
## Model Description
|