| | --- |
| | language: |
| | - en |
| | - uk |
| | - ru |
| | license: apache-2.0 |
| | tags: |
| | - text2text-generation |
| | - transformer |
| | - russian |
| | - flare |
| | metrics: |
| | - character |
| | library_name: transformers.js |
| | --- |
| | |
| | # FlareNew |
| |
|
| | **FlareNew** is a text-to-text model based on the Transformer architecture, optimized for use with Hugging Face and the [transformers.js](https://xenova.github.io/transformers.js/) library in the browser. |
| |
|
| | --- |
| |
|
| | ## О модели |
| |
|
| | - Тип: Text-to-Text Generation |
| | - Архитектура: Transformer |
| | - Название модели на Hugging Face: `FlareNew` |
| | - Цель: генерация связного, естественного текста на основе текстового запроса |
| |
|
| | --- |
| |
|
| | ## Использование на Hugging Face (Python) |
| |
|
| | ```python |
| | from transformers import AutoModelForSeq2SeqLM, AutoTokenizer |
| | |
| | model_name = "FlareNew" |
| | |
| | tokenizer = AutoTokenizer.from_pretrained(model_name) |
| | model = AutoModelForSeq2SeqLM.from_pretrained(model_name) |
| | |
| | input_text = "Пример входного текста" |
| | inputs = tokenizer(input_text, return_tensors="pt") |
| | |
| | outputs = model.generate(**inputs) |
| | generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True) |
| | |
| | print(generated_text) |
| | ``` |
| |
|
| | --- |
| |
|
| | ## Использование с transformers.js (JavaScript) |
| |
|
| | ```javascript |
| | import { pipeline } from "@xenova/transformers"; |
| | |
| | async function run() { |
| | // Инициализация пайплайна text2text-generation с моделью FlareNew |
| | const generator = await pipeline("text2text-generation", "FlareNew"); |
| | |
| | const input = "Пример входного текста"; |
| | |
| | const output = await generator(input); |
| | |
| | console.log(output[0].generated_text); |
| | } |
| | |
| | run(); |
| | ``` |
| |
|
| | --- |
| |
|
| | ## Установка |
| |
|
| | ### Python (Hugging Face Transformers) |
| |
|
| | ```bash |
| | pip install transformers torch |
| | ``` |
| |
|
| | ### JavaScript (transformers.js) |
| |
|
| | ```bash |
| | npm install @xenova/transformers |
| | ``` |
| |
|
| | --- |
| |
|
| | ## Тренировка модели |
| |
|
| | На этой странице вы можете нажать кнопку **Train**, чтобы запустить процесс обучения модели. |
| | Для этого в репозитории настроен [GitHub Actions workflow](./.github/workflows/train.yml), который автоматически запускает тренировку на выбранных данных. |
| |
|
| | Если вы хотите запустить тренировку локально, используйте следующий пример команды: |
| |
|
| | ```bash |
| | python train.py --model_name FlareNew --train_data path/to/train_data.jsonl |
| | ``` |
| |
|
| | --- |
| |
|
| | ## Развёртывание модели |
| |
|
| | Чтобы быстро развернуть модель и протестировать её через веб-интерфейс, воспользуйтесь кнопкой **Deploy**, которая создаст приложение на Hugging Face Spaces. |
| |
|
| | Также вы можете самостоятельно запустить Space с этим кодом: |
| |
|
| | ```python |
| | import gradio as gr |
| | from transformers import pipeline |
| | |
| | generator = pipeline("text2text-generation", "FlareNew") |
| | |
| | def generate_text(input_text): |
| | output = generator(input_text) |
| | return output[0]['generated_text'] |
| | |
| | iface = gr.Interface(fn=generate_text, inputs="text", outputs="text", title="FlareNew Text Generation") |
| | iface.launch() |
| | ``` |
| |
|
| | --- |
| |
|
| | ## Контакты и поддержка |
| |
|
| | Если у вас есть вопросы или предложения, пожалуйста, создайте issue в репозитории или свяжитесь со мной. |
| |
|
| | --- |
| |
|
| | ## Лицензия |
| |
|
| | Укажите здесь лицензию вашей модели (например, MIT, Apache 2.0 и т.д.) |