Vilyam888 commited on
Commit
349d09e
·
verified ·
1 Parent(s): 3027781

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -101
README.md CHANGED
@@ -41,36 +41,7 @@ Fine-tuned версия модели Qwen2.5-Coder-3B-Instruct для анали
41
 
42
  ## Быстрый старт
43
 
44
- ### Вариант 1: Использование виджета на странице модели
45
-
46
- 1. Перейдите на страницу модели: https://huggingface.co/Vilyam888/Code_analyze.1.0
47
- 2. Прокрутите страницу вниз до раздела **"Hosted inference API"** или **"Widget"**
48
- 3. Введите ваш запрос в текстовое поле виджета
49
- 4. Нажмите "Compute" для получения ответа
50
-
51
- ### Вариант 1.5: Создайте Gradio Space (если Inference API недоступен)
52
-
53
- Если опция "Inference" не отображается в меню "Use this model", создайте интерактивный Gradio Space:
54
-
55
- **Быстрая инструкция:**
56
-
57
- 1. Перейдите на https://huggingface.co/spaces
58
- 2. Нажмите **"Create new Space"**
59
- 3. Заполните форму:
60
- - **Space name**: `code-analyzer-demo` (или любое другое)
61
- - **SDK**: выберите **Gradio**
62
- - **Hardware**: **CPU Basic** (бесплатно)
63
- - **Visibility**: **Public**
64
- 4. Нажмите **"Create Space"**
65
- 5. Загрузите файлы:
66
- - `app.py` (из этой модели)
67
- - `requirements_gradio.txt` → переименуйте в `requirements.txt`
68
- 6. Дождитесь автоматического запуска (2-5 минут)
69
- 7. Готово! Интерфейс будет доступен на странице Space
70
-
71
-
72
-
73
- ### Вариант 2: Использование локально (Python)
74
 
75
  **Установка зависимостей:**
76
  ```bash
@@ -141,77 +112,6 @@ python scripts/quick_start_example.py
141
  python scripts/use_model_example.py
142
  ```
143
 
144
- ## Использование
145
-
146
- ### С помощью transformers
147
-
148
- ```python
149
- from transformers import AutoModelForCausalLM, AutoTokenizer
150
- import torch
151
-
152
- model_name = "Vilyam888/Code_analyze.1.0"
153
-
154
- tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
155
- model = AutoModelForCausalLM.from_pretrained(
156
- model_name,
157
- torch_dtype=torch.bfloat16,
158
- device_map="auto",
159
- trust_remote_code=True
160
- )
161
-
162
- # Формат запроса
163
- prompt = "Проанализируй этот код:\ndef hello():\n print('Hello, World!')"
164
-
165
- # Форматирование в стиле обучения
166
- text = f"{prompt}\n\nОтвет:\n"
167
-
168
- inputs = tokenizer(text, return_tensors="pt").to(model.device)
169
-
170
- with torch.no_grad():
171
- outputs = model.generate(
172
- **inputs,
173
- max_new_tokens=512,
174
- temperature=0.7,
175
- top_p=0.8,
176
- top_k=20,
177
- repetition_penalty=1.05,
178
- do_sample=True
179
- )
180
-
181
- response = tokenizer.decode(outputs[0], skip_special_tokens=True)
182
- print(response)
183
- ```
184
-
185
- ### С помощью pipeline
186
-
187
- ```python
188
- from transformers import pipeline
189
-
190
- model_name = "Vilyam888/Code_analyze.1.0"
191
-
192
- generator = pipeline(
193
- "text-generation",
194
- model=model_name,
195
- tokenizer=model_name,
196
- trust_remote_code=True,
197
- device_map="auto"
198
- )
199
-
200
- prompt = "Объясни, что делает этот код:\ndef factorial(n):\n if n <= 1:\n return 1\n return n * factorial(n-1)"
201
- text = f"{prompt}\n\nОтвет:\n"
202
-
203
- result = generator(
204
- text,
205
- max_new_tokens=512,
206
- temperature=0.7,
207
- top_p=0.8,
208
- top_k=20,
209
- repetition_penalty=1.05,
210
- do_sample=True
211
- )
212
-
213
- print(result[0]["generated_text"])
214
- ```
215
 
216
  ## Детали обучения
217
 
 
41
 
42
  ## Быстрый старт
43
 
44
+ ### Вариант 1: Использование локально (Python)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
45
 
46
  **Установка зависимостей:**
47
  ```bash
 
112
  python scripts/use_model_example.py
113
  ```
114
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
115
 
116
  ## Детали обучения
117