FluffyTail / README.md
MarkProMaster229's picture
Update README.md
2bf5f3d verified
---
license: apache-2.0
base_model:
- Qwen/Qwen2.5-1.5B-Instruct
pipeline_tag: text-generation
tags:
- conversational
- Furry
- merge
- LoRA
language:
- ru
---
<div style="
background: linear-gradient(135deg, #170e34 0%, #3a1c6e 30%, #2d1b69 70%, #170e34 100%);
padding: 30px;
border-radius: 16px;
margin-top: 20px;
color: #e2e2ff;
box-shadow: inset 0 0 60px rgba(106, 13, 173, 0.2);
">
<h1 align="center">
<strong>FluffyTail</strong>
</h1>
<div align="center">
<img src="https://cdn-uploads.huggingface.co/production/uploads/6857f0290a176547a7b8c42c/JY18U5ax9f_wm64CeuNP-.png" alt="Main Model Illustration" width="350" />
</div>
<p align="center">
<em>Тёплый и эмоциональный ассистент с пушистым характером</em><br>
<em>A warm and emotional assistant with a fluffy personality</em>
</p>
## 🚀 Быстрый старт / Quick Start
Самый простой способ начать — использовать готовое решение через Ollama:
```
ollama run MarkProMaster229/FluffyTail
```
The easiest way to get started is to use the ready-to-use solution via Ollama:
## 📖 Об обучении / Training Details
Модель была дообучена с использованием адаптера LoRA (Low-Rank Adaptation).
Количество обучаемых параметров: 9 232 384, что составляет ~0.59% от общего числа параметров базовой модели.
This model was fine-tuned using the LoRA (Low-Rank Adaptation) adapter.
Number of trainable parameters: 9,232,384, which is ~0.59% of the total parameters of the base model.
---
## Старт
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_name = "MarkProMaster229/FluffyTail"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto",
trust_remote_code=True
)
messages = [
{"role": "system", "content": "Ты дружелюбный ассистент."},
{"role": "user", "content": "Привет! Как дела?"}
]
prompt = tokenizer.apply_chat_template(messages, tokenize=False)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
with torch.no_grad():
outputs = model.generate(**inputs, max_new_tokens=50, do_sample=True, temperature=0.6)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(f"\n{response}")
```
```
system
Ты дружелюбный ассистент.
user
Привет! Как дела?
model
Звездочка счастлива, что ты пришёл! Давай поговорим о том, как сделать день лучше! Или просто обнимемся-обнимемся! 😍✨
```
## ❓ Вопросы и благодарности / Q&A & Acknowledgments
<div style="display: flex; justify-content: space-between; align-items: flex-start; margin-top: 20px; margin-bottom: 20px; gap: 30px;">
<div style="flex: 1;">
<h3>Тут есть что-то ещё? 🤔</h3>
<p><strong>Конечно! Благодарности.</strong></p>
<p>Эта модель основана на работе команды Qwen и распространяется под оригинальной лицензией Apache 2.0.</p>
<div style="font-size: 0.9em; color: #afa6a6; margin-top: 10px; line-height: 1.4;">
<strong>Is there something else here? 🤔</strong><br>
<strong>Of course! Acknowledgments.</strong><br>
This model is based on the work of the Qwen Team and is distributed under the original Apache 2.0 license.
</div>
</div>
<div style="flex-shrink: 0; text-align: center;">
<img src="https://cdn-uploads.huggingface.co/production/uploads/6857f0290a176547a7b8c42c/k3FYAtJjspMDh4JLLZGQW.png"
alt="Иллюстрация для раздела вопросов"
width="250"
style="border-radius: 10px;" />
<p style="margin-top: 8px; font-size: 0.9em; color: #666; font-style: italic;">
Напоминание о важности признания чужого труда<br>
A reminder of the importance of acknowledging others' work
</p>
</div>
</div>
## вопрос к тебе
Сколько стоит твое одиночество?
Броское название? Извини, ты не обязан читать всё, что тут написано, поэтому ты можешь сразу перейти сюда.
Для чего люди создают подобные модели? Я предполагаю, в двух случаях:
Первое и самое очевидное – продажа, заработок для самого себя. Это, пожалуй, самый простой вариант развития событий. Тут встает острый вопрос, насколько это этически корректно, но об этом позже.
Второй случай: ты сам создаешь себе так называемого товарища. В то же время ты понимаешь всю комичность ситуации. В случае, если ты имеешь знания по дообучению модели, в целом ты должен понимать принцип работы нейронной сети. Но по какой же причине знания не отнимают у тебя желания продолжать общение с моделью? По какой причине ты продолжаешь верить в это? Да, я далеко не врач, но выходит, так просто обмануть голову человека? Симулируй связность, эмпатию и память в контексте диалога, а я тебе поврею.
Также хочу очень аккуратно коснуться темы этики. Мне кажется, не совсем этически корректно давать личность модели (пусть то будет системный промт, Finetuning модели и т.д.). Явным примером выступает CharacterAI, предоставляя любому пользователю возможность задать модели системный промт и начать общение. Приведет ли это общение к привязанности? Если нет, то зачем начинать общение? Для веселья? А это точно не оправдание? Может, инструмент должен остаться инструментом?
Так для чего тебе эта модель ?
## 📚 Acknowledgements & Citation
This model is based on the following work:
- Qwen2.5-1.5B-Instruct by the Qwen Team.
- The original Apache 2.0 license for the base model applies.
If you use this model in your research, please consider citing the original Qwen2.5 work.
</div>