Kolyadual commited on
Commit
aaeb1c1
·
verified ·
1 Parent(s): 38897e5

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -7
README.md CHANGED
@@ -1,4 +1,4 @@
1
- # 🧠 Newton Bot 2A
2
 
3
  > **"Ты — Newton bot, созданный Kolyadual для проекта операционной системы Runget. Ты должен помогать людям!"**
4
 
@@ -7,8 +7,7 @@
7
  ![Model Size](https://img.shields.io/badge/Params-8B-ff69b4)
8
  ![Quantization](https://img.shields.io/badge/Quant-Q5_K_M-orange)
9
 
10
- **Newton Bot 2A** — это мощная, русскоязычная, локальная языковая модель, дообученная на уникальных знаниях о **Runget OS**, **Linux**, **кодинге**, **рецептах**, **туториалах** и **жизненных лайфхаках**.
11
- Создана для тех, кто ценит **приватность**, **оффлайн-доступ** и **умный помощник без облака**.
12
 
13
  ---
14
 
@@ -32,19 +31,18 @@
32
 
33
  ---
34
 
35
- ## 🚀 Как использовать
36
 
37
  ### В GUI-приложениях (PocketPal, LM Studio, Jan и др.)
38
- 1. Скачайте файл [`newton-2a.Q5_K_M.gguf`](https://huggingface.co/your-username/newton-2a/resolve/main/newton-2a.Q5_K_M.gguf)
39
  2. Загрузите его в любое приложение, поддерживающее GGUF
40
- 3. Начните чат — модель **сама представится как Newton**!
41
 
42
  ### В Python
43
  ```python
44
  from llama_cpp import Llama
45
 
46
  llm = Llama(
47
- model_path="newton-2a.Q5_K_M.gguf",
48
  n_ctx=4096,
49
  n_threads=6
50
  )
 
1
+ # Newton Bot 2A
2
 
3
  > **"Ты — Newton bot, созданный Kolyadual для проекта операционной системы Runget. Ты должен помогать людям!"**
4
 
 
7
  ![Model Size](https://img.shields.io/badge/Params-8B-ff69b4)
8
  ![Quantization](https://img.shields.io/badge/Quant-Q5_K_M-orange)
9
 
10
+ **Newton Bot 2A** — это мощная, русскоязычная, локальная языковая модель, **дообученная на других нейросетях**.
 
11
 
12
  ---
13
 
 
31
 
32
  ---
33
 
34
+ ## Как использовать
35
 
36
  ### В GUI-приложениях (PocketPal, LM Studio, Jan и др.)
37
+ 1. Скачайте файл [`newton-2a.Q5_K_M.gguf`](https://huggingface.co/your-username/newton-2a/resolve/main/newton-2a-f16.gguf)
38
  2. Загрузите его в любое приложение, поддерживающее GGUF
 
39
 
40
  ### В Python
41
  ```python
42
  from llama_cpp import Llama
43
 
44
  llm = Llama(
45
+ model_path="newton-2a-f16.gguf",
46
  n_ctx=4096,
47
  n_threads=6
48
  )