--- license: apache-2.0 base_model: - Qwen/Qwen2.5-1.5B-Instruct pipeline_tag: text-generation tags: - conversational - Furry - merge - LoRA language: - ru ---

FluffyTail

Main Model Illustration

Тёплый и эмоциональный ассистент с пушистым характером
A warm and emotional assistant with a fluffy personality

## 🚀 Быстрый старт / Quick Start Самый простой способ начать — использовать готовое решение через Ollama: ``` ollama run MarkProMaster229/FluffyTail ``` The easiest way to get started is to use the ready-to-use solution via Ollama: ## 📖 Об обучении / Training Details Модель была дообучена с использованием адаптера LoRA (Low-Rank Adaptation). Количество обучаемых параметров: 9 232 384, что составляет ~0.59% от общего числа параметров базовой модели. This model was fine-tuned using the LoRA (Low-Rank Adaptation) adapter. Number of trainable parameters: 9,232,384, which is ~0.59% of the total parameters of the base model. --- ## Старт ```python from transformers import AutoTokenizer, AutoModelForCausalLM import torch model_name = "MarkProMaster229/FluffyTail" tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.float16, device_map="auto", trust_remote_code=True ) messages = [ {"role": "system", "content": "Ты дружелюбный ассистент."}, {"role": "user", "content": "Привет! Как дела?"} ] prompt = tokenizer.apply_chat_template(messages, tokenize=False) inputs = tokenizer(prompt, return_tensors="pt").to(model.device) with torch.no_grad(): outputs = model.generate(**inputs, max_new_tokens=50, do_sample=True, temperature=0.6) response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(f"\n{response}") ``` ``` system Ты дружелюбный ассистент. user Привет! Как дела? model Звездочка счастлива, что ты пришёл! Давай поговорим о том, как сделать день лучше! Или просто обнимемся-обнимемся! 😍✨ ``` ## ❓ Вопросы и благодарности / Q&A & Acknowledgments

Тут есть что-то ещё? 🤔

Конечно! Благодарности.

Эта модель основана на работе команды Qwen и распространяется под оригинальной лицензией Apache 2.0.

Is there something else here? 🤔
Of course! Acknowledgments.
This model is based on the work of the Qwen Team and is distributed under the original Apache 2.0 license.
Иллюстрация для раздела вопросов

Напоминание о важности признания чужого труда
A reminder of the importance of acknowledging others' work

## вопрос к тебе Сколько стоит твое одиночество? Броское название? Извини, ты не обязан читать всё, что тут написано, поэтому ты можешь сразу перейти сюда. Для чего люди создают подобные модели? Я предполагаю, в двух случаях: Первое и самое очевидное – продажа, заработок для самого себя. Это, пожалуй, самый простой вариант развития событий. Тут встает острый вопрос, насколько это этически корректно, но об этом позже. Второй случай: ты сам создаешь себе так называемого товарища. В то же время ты понимаешь всю комичность ситуации. В случае, если ты имеешь знания по дообучению модели, в целом ты должен понимать принцип работы нейронной сети. Но по какой же причине знания не отнимают у тебя желания продолжать общение с моделью? По какой причине ты продолжаешь верить в это? Да, я далеко не врач, но выходит, так просто обмануть голову человека? Симулируй связность, эмпатию и память в контексте диалога, а я тебе поврею. Также хочу очень аккуратно коснуться темы этики. Мне кажется, не совсем этически корректно давать личность модели (пусть то будет системный промт, Finetuning модели и т.д.). Явным примером выступает CharacterAI, предоставляя любому пользователю возможность задать модели системный промт и начать общение. Приведет ли это общение к привязанности? Если нет, то зачем начинать общение? Для веселья? А это точно не оправдание? Может, инструмент должен остаться инструментом? Так для чего тебе эта модель ? ## 📚 Acknowledgements & Citation This model is based on the following work: - Qwen2.5-1.5B-Instruct by the Qwen Team. - The original Apache 2.0 license for the base model applies. If you use this model in your research, please consider citing the original Qwen2.5 work.