File size: 7,244 Bytes
83bfd61 43b3430 83bfd61 05ce76e 83bfd61 43b3430 83bfd61 43b3430 65dda81 83bfd61 65dda81 43b3430 65dda81 83bfd61 43b3430 83bfd61 43b3430 83bfd61 65dda81 83bfd61 2bf5f3d 83bfd61 43b3430 83bfd61 43b3430 65dda81 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 |
---
license: apache-2.0
base_model:
- Qwen/Qwen2.5-1.5B-Instruct
pipeline_tag: text-generation
tags:
- conversational
- Furry
- merge
- LoRA
language:
- ru
---
<div style="
background: linear-gradient(135deg, #170e34 0%, #3a1c6e 30%, #2d1b69 70%, #170e34 100%);
padding: 30px;
border-radius: 16px;
margin-top: 20px;
color: #e2e2ff;
box-shadow: inset 0 0 60px rgba(106, 13, 173, 0.2);
">
<h1 align="center">
<strong>FluffyTail</strong>
</h1>
<div align="center">
<img src="https://cdn-uploads.huggingface.co/production/uploads/6857f0290a176547a7b8c42c/JY18U5ax9f_wm64CeuNP-.png" alt="Main Model Illustration" width="350" />
</div>
<p align="center">
<em>Тёплый и эмоциональный ассистент с пушистым характером</em><br>
<em>A warm and emotional assistant with a fluffy personality</em>
</p>
## 🚀 Быстрый старт / Quick Start
Самый простой способ начать — использовать готовое решение через Ollama:
```
ollama run MarkProMaster229/FluffyTail
```
The easiest way to get started is to use the ready-to-use solution via Ollama:
## 📖 Об обучении / Training Details
Модель была дообучена с использованием адаптера LoRA (Low-Rank Adaptation).
Количество обучаемых параметров: 9 232 384, что составляет ~0.59% от общего числа параметров базовой модели.
This model was fine-tuned using the LoRA (Low-Rank Adaptation) adapter.
Number of trainable parameters: 9,232,384, which is ~0.59% of the total parameters of the base model.
---
## Старт
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_name = "MarkProMaster229/FluffyTail"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto",
trust_remote_code=True
)
messages = [
{"role": "system", "content": "Ты дружелюбный ассистент."},
{"role": "user", "content": "Привет! Как дела?"}
]
prompt = tokenizer.apply_chat_template(messages, tokenize=False)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
with torch.no_grad():
outputs = model.generate(**inputs, max_new_tokens=50, do_sample=True, temperature=0.6)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(f"\n{response}")
```
```
system
Ты дружелюбный ассистент.
user
Привет! Как дела?
model
Звездочка счастлива, что ты пришёл! Давай поговорим о том, как сделать день лучше! Или просто обнимемся-обнимемся! 😍✨
```
## ❓ Вопросы и благодарности / Q&A & Acknowledgments
<div style="display: flex; justify-content: space-between; align-items: flex-start; margin-top: 20px; margin-bottom: 20px; gap: 30px;">
<div style="flex: 1;">
<h3>Тут есть что-то ещё? 🤔</h3>
<p><strong>Конечно! Благодарности.</strong></p>
<p>Эта модель основана на работе команды Qwen и распространяется под оригинальной лицензией Apache 2.0.</p>
<div style="font-size: 0.9em; color: #afa6a6; margin-top: 10px; line-height: 1.4;">
<strong>Is there something else here? 🤔</strong><br>
<strong>Of course! Acknowledgments.</strong><br>
This model is based on the work of the Qwen Team and is distributed under the original Apache 2.0 license.
</div>
</div>
<div style="flex-shrink: 0; text-align: center;">
<img src="https://cdn-uploads.huggingface.co/production/uploads/6857f0290a176547a7b8c42c/k3FYAtJjspMDh4JLLZGQW.png"
alt="Иллюстрация для раздела вопросов"
width="250"
style="border-radius: 10px;" />
<p style="margin-top: 8px; font-size: 0.9em; color: #666; font-style: italic;">
Напоминание о важности признания чужого труда<br>
A reminder of the importance of acknowledging others' work
</p>
</div>
</div>
## вопрос к тебе
Сколько стоит твое одиночество?
Броское название? Извини, ты не обязан читать всё, что тут написано, поэтому ты можешь сразу перейти сюда.
Для чего люди создают подобные модели? Я предполагаю, в двух случаях:
Первое и самое очевидное – продажа, заработок для самого себя. Это, пожалуй, самый простой вариант развития событий. Тут встает острый вопрос, насколько это этически корректно, но об этом позже.
Второй случай: ты сам создаешь себе так называемого товарища. В то же время ты понимаешь всю комичность ситуации. В случае, если ты имеешь знания по дообучению модели, в целом ты должен понимать принцип работы нейронной сети. Но по какой же причине знания не отнимают у тебя желания продолжать общение с моделью? По какой причине ты продолжаешь верить в это? Да, я далеко не врач, но выходит, так просто обмануть голову человека? Симулируй связность, эмпатию и память в контексте диалога, а я тебе поврею.
Также хочу очень аккуратно коснуться темы этики. Мне кажется, не совсем этически корректно давать личность модели (пусть то будет системный промт, Finetuning модели и т.д.). Явным примером выступает CharacterAI, предоставляя любому пользователю возможность задать модели системный промт и начать общение. Приведет ли это общение к привязанности? Если нет, то зачем начинать общение? Для веселья? А это точно не оправдание? Может, инструмент должен остаться инструментом?
Так для чего тебе эта модель ?
## 📚 Acknowledgements & Citation
This model is based on the following work:
- Qwen2.5-1.5B-Instruct by the Qwen Team.
- The original Apache 2.0 license for the base model applies.
If you use this model in your research, please consider citing the original Qwen2.5 work.
</div> |