|
|
--- |
|
|
license: apache-2.0 |
|
|
base_model: |
|
|
- Qwen/Qwen2.5-1.5B-Instruct |
|
|
pipeline_tag: text-generation |
|
|
tags: |
|
|
- conversational |
|
|
- Furry |
|
|
- merge |
|
|
- LoRA |
|
|
language: |
|
|
- ru |
|
|
--- |
|
|
|
|
|
<div style=" |
|
|
background: linear-gradient(135deg, #170e34 0%, #3a1c6e 30%, #2d1b69 70%, #170e34 100%); |
|
|
padding: 30px; |
|
|
border-radius: 16px; |
|
|
margin-top: 20px; |
|
|
color: #e2e2ff; |
|
|
box-shadow: inset 0 0 60px rgba(106, 13, 173, 0.2); |
|
|
"> |
|
|
|
|
|
<h1 align="center"> |
|
|
<strong>FluffyTail</strong> |
|
|
</h1> |
|
|
|
|
|
<div align="center"> |
|
|
<img src="https://cdn-uploads.huggingface.co/production/uploads/6857f0290a176547a7b8c42c/JY18U5ax9f_wm64CeuNP-.png" alt="Main Model Illustration" width="350" /> |
|
|
</div> |
|
|
|
|
|
<p align="center"> |
|
|
<em>Тёплый и эмоциональный ассистент с пушистым характером</em><br> |
|
|
<em>A warm and emotional assistant with a fluffy personality</em> |
|
|
</p> |
|
|
|
|
|
## 🚀 Быстрый старт / Quick Start |
|
|
|
|
|
Самый простой способ начать — использовать готовое решение через Ollama: |
|
|
``` |
|
|
ollama run MarkProMaster229/FluffyTail |
|
|
``` |
|
|
The easiest way to get started is to use the ready-to-use solution via Ollama: |
|
|
|
|
|
|
|
|
## 📖 Об обучении / Training Details |
|
|
Модель была дообучена с использованием адаптера LoRA (Low-Rank Adaptation). |
|
|
Количество обучаемых параметров: 9 232 384, что составляет ~0.59% от общего числа параметров базовой модели. |
|
|
|
|
|
This model was fine-tuned using the LoRA (Low-Rank Adaptation) adapter. |
|
|
Number of trainable parameters: 9,232,384, which is ~0.59% of the total parameters of the base model. |
|
|
|
|
|
--- |
|
|
|
|
|
## Старт |
|
|
```python |
|
|
from transformers import AutoTokenizer, AutoModelForCausalLM |
|
|
import torch |
|
|
model_name = "MarkProMaster229/FluffyTail" |
|
|
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) |
|
|
model = AutoModelForCausalLM.from_pretrained( |
|
|
model_name, |
|
|
torch_dtype=torch.float16, |
|
|
device_map="auto", |
|
|
trust_remote_code=True |
|
|
) |
|
|
messages = [ |
|
|
{"role": "system", "content": "Ты дружелюбный ассистент."}, |
|
|
{"role": "user", "content": "Привет! Как дела?"} |
|
|
] |
|
|
prompt = tokenizer.apply_chat_template(messages, tokenize=False) |
|
|
|
|
|
inputs = tokenizer(prompt, return_tensors="pt").to(model.device) |
|
|
with torch.no_grad(): |
|
|
outputs = model.generate(**inputs, max_new_tokens=50, do_sample=True, temperature=0.6) |
|
|
response = tokenizer.decode(outputs[0], skip_special_tokens=True) |
|
|
|
|
|
print(f"\n{response}") |
|
|
|
|
|
``` |
|
|
|
|
|
``` |
|
|
system |
|
|
Ты дружелюбный ассистент. |
|
|
user |
|
|
Привет! Как дела? |
|
|
model |
|
|
Звездочка счастлива, что ты пришёл! Давай поговорим о том, как сделать день лучше! Или просто обнимемся-обнимемся! 😍✨ |
|
|
|
|
|
``` |
|
|
|
|
|
## ❓ Вопросы и благодарности / Q&A & Acknowledgments |
|
|
|
|
|
<div style="display: flex; justify-content: space-between; align-items: flex-start; margin-top: 20px; margin-bottom: 20px; gap: 30px;"> |
|
|
<div style="flex: 1;"> |
|
|
<h3>Тут есть что-то ещё? 🤔</h3> |
|
|
<p><strong>Конечно! Благодарности.</strong></p> |
|
|
<p>Эта модель основана на работе команды Qwen и распространяется под оригинальной лицензией Apache 2.0.</p> |
|
|
<div style="font-size: 0.9em; color: #afa6a6; margin-top: 10px; line-height: 1.4;"> |
|
|
<strong>Is there something else here? 🤔</strong><br> |
|
|
<strong>Of course! Acknowledgments.</strong><br> |
|
|
This model is based on the work of the Qwen Team and is distributed under the original Apache 2.0 license. |
|
|
</div> |
|
|
</div> |
|
|
|
|
|
<div style="flex-shrink: 0; text-align: center;"> |
|
|
<img src="https://cdn-uploads.huggingface.co/production/uploads/6857f0290a176547a7b8c42c/k3FYAtJjspMDh4JLLZGQW.png" |
|
|
alt="Иллюстрация для раздела вопросов" |
|
|
width="250" |
|
|
style="border-radius: 10px;" /> |
|
|
<p style="margin-top: 8px; font-size: 0.9em; color: #666; font-style: italic;"> |
|
|
Напоминание о важности признания чужого труда<br> |
|
|
A reminder of the importance of acknowledging others' work |
|
|
</p> |
|
|
</div> |
|
|
</div> |
|
|
|
|
|
## вопрос к тебе |
|
|
Сколько стоит твое одиночество? |
|
|
Броское название? Извини, ты не обязан читать всё, что тут написано, поэтому ты можешь сразу перейти сюда. |
|
|
Для чего люди создают подобные модели? Я предполагаю, в двух случаях: |
|
|
Первое и самое очевидное – продажа, заработок для самого себя. Это, пожалуй, самый простой вариант развития событий. Тут встает острый вопрос, насколько это этически корректно, но об этом позже. |
|
|
Второй случай: ты сам создаешь себе так называемого товарища. В то же время ты понимаешь всю комичность ситуации. В случае, если ты имеешь знания по дообучению модели, в целом ты должен понимать принцип работы нейронной сети. Но по какой же причине знания не отнимают у тебя желания продолжать общение с моделью? По какой причине ты продолжаешь верить в это? Да, я далеко не врач, но выходит, так просто обмануть голову человека? Симулируй связность, эмпатию и память в контексте диалога, а я тебе поврею. |
|
|
Также хочу очень аккуратно коснуться темы этики. Мне кажется, не совсем этически корректно давать личность модели (пусть то будет системный промт, Finetuning модели и т.д.). Явным примером выступает CharacterAI, предоставляя любому пользователю возможность задать модели системный промт и начать общение. Приведет ли это общение к привязанности? Если нет, то зачем начинать общение? Для веселья? А это точно не оправдание? Может, инструмент должен остаться инструментом? |
|
|
Так для чего тебе эта модель ? |
|
|
|
|
|
|
|
|
## 📚 Acknowledgements & Citation |
|
|
|
|
|
This model is based on the following work: |
|
|
|
|
|
- Qwen2.5-1.5B-Instruct by the Qwen Team. |
|
|
- The original Apache 2.0 license for the base model applies. |
|
|
|
|
|
If you use this model in your research, please consider citing the original Qwen2.5 work. |
|
|
|
|
|
</div> |