| | --- |
| | base_model: deepseek-ai/deepseek-coder-1.3b-instruct |
| | tags: |
| | - deepseek |
| | - lora |
| | - dialog |
| | - russian |
| | license: apache-2.0 |
| | --- |
| | |
| | # DeepSeek Dialog Bot (SMMv1) |
| |
|
| | Это LoRA адаптер для модели DeepSeek Coder 1.3B, обученный на диалогах. |
| |
|
| | ## Использование |
| |
|
| | ```python |
| | from transformers import AutoTokenizer, AutoModelForCausalLM |
| | from peft import PeftModel |
| | |
| | # Загрузка базовой модели |
| | base_model = "deepseek-ai/deepseek-coder-1.3b-instruct" |
| | model = AutoModelForCausalLM.from_pretrained( |
| | base_model, |
| | device_map="auto", |
| | torch_dtype="auto" |
| | ) |
| | |
| | tokenizer = AutoTokenizer.from_pretrained(base_model) |
| | |
| | # Применение LoRA адаптера |
| | model = PeftModel.from_pretrained(model, "smmmanager/SMMv1") |
| | |
| | # Генерация |
| | prompt = "### User:\nПривет!\n\n### Assistant:\n" |
| | inputs = tokenizer(prompt, return_tensors="pt").to(model.device) |
| | outputs = model.generate(**inputs, max_new_tokens=100) |
| | print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |
| | ``` |
| |
|
| | ## Обучение |
| |
|
| | - Базовая модель: DeepSeek Coder 1.3B Instruct |
| | - Метод: LoRA (r=16, alpha=32) |
| | - Данные: Диалоги на русском языке |
| | - Эпохи: 2 |
| |
|
| | ## Характер бота |
| |
|
| | Саша, работает в биржевой торговле и владеет СТО. Дружелюбный стиль общения. |
| |
|