HaveAI commited on
Commit
89d0962
·
verified ·
1 Parent(s): 3b0ef6d

Upload README (1).md

Browse files
Files changed (1) hide show
  1. README (1).md +127 -0
README (1).md ADDED
@@ -0,0 +1,127 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language: "ru"
3
+ license: "apache-2.0"
4
+ tags:
5
+ - text2text-generation
6
+ - transformer
7
+ - russian
8
+ - flare
9
+ ---
10
+
11
+ # FlareNew
12
+
13
+ **FlareNew** — это модель для генерации текста (text-to-text) на основе архитектуры Transformer, оптимизированная для использования с Hugging Face и библиотекой [transformers.js](https://xenova.github.io/transformers.js/) в браузере.
14
+
15
+ ---
16
+
17
+ ## О модели
18
+
19
+ - Тип: Text-to-Text Generation
20
+ - Архитектура: Transformer
21
+ - Название модели на Hugging Face: `FlareNew`
22
+ - Цель: генерация связного, естественного текста на основе текстового запроса
23
+
24
+ ---
25
+
26
+ ## Использование на Hugging Face (Python)
27
+
28
+ ```python
29
+ from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
30
+
31
+ model_name = "FlareNew"
32
+
33
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
34
+ model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
35
+
36
+ input_text = "Пример входного текста"
37
+ inputs = tokenizer(input_text, return_tensors="pt")
38
+
39
+ outputs = model.generate(**inputs)
40
+ generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
41
+
42
+ print(generated_text)
43
+ ```
44
+
45
+ ---
46
+
47
+ ## Использование с transformers.js (JavaScript)
48
+
49
+ ```javascript
50
+ import { pipeline } from "@xenova/transformers";
51
+
52
+ async function run() {
53
+ // Инициализация пайплайна text2text-generation с моделью FlareNew
54
+ const generator = await pipeline("text2text-generation", "FlareNew");
55
+
56
+ const input = "Пример входного текста";
57
+
58
+ const output = await generator(input);
59
+
60
+ console.log(output[0].generated_text);
61
+ }
62
+
63
+ run();
64
+ ```
65
+
66
+ ---
67
+
68
+ ## Установка
69
+
70
+ ### Python (Hugging Face Transformers)
71
+
72
+ ```bash
73
+ pip install transformers torch
74
+ ```
75
+
76
+ ### JavaScript (transformers.js)
77
+
78
+ ```bash
79
+ npm install @xenova/transformers
80
+ ```
81
+
82
+ ---
83
+
84
+ ## Тренировка модели
85
+
86
+ На этой странице вы можете нажать кнопку **Train**, чтобы запустить процесс обучения модели.
87
+ Для этого в репозитории настроен [GitHub Actions workflow](./.github/workflows/train.yml), который автоматически запускает тренировку на выбранных данных.
88
+
89
+ Если вы хотите запустить тренировку локально, используйте следующий пример команды:
90
+
91
+ ```bash
92
+ python train.py --model_name FlareNew --train_data path/to/train_data.jsonl
93
+ ```
94
+
95
+ ---
96
+
97
+ ## Развёртывание модели
98
+
99
+ Чтобы быстро развернуть модель и протестировать её через веб-интерфейс, воспользуйтесь кнопкой **Deploy**, которая создаст приложение на Hugging Face Spaces.
100
+
101
+ Также вы можете самостоятельно запустить Space с этим кодом:
102
+
103
+ ```python
104
+ import gradio as gr
105
+ from transformers import pipeline
106
+
107
+ generator = pipeline("text2text-generation", "FlareNew")
108
+
109
+ def generate_text(input_text):
110
+ output = generator(input_text)
111
+ return output[0]['generated_text']
112
+
113
+ iface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="FlareNew Text Generation")
114
+ iface.launch()
115
+ ```
116
+
117
+ ---
118
+
119
+ ## Контакты и поддержка
120
+
121
+ Если у вас есть вопросы или предложения, пожалуйста, создайте issue в репозитории или свяжитесь со мной.
122
+
123
+ ---
124
+
125
+ ## Лицензия
126
+
127
+ Укажите здесь лицензию вашей модели (например, MIT, Apache 2.0 и т.д.)