--- library_name: transformers model_name: ruadapt-s1 base_model: RefalMachine/ruadapt_qwen2.5_3B_ext_u48_instruct_v4 language: - ru datasets: dankalin/s1K-1.1-ru --- # ruadapt-s1 Инструктивная модель на основе ruadapt_qwen2.5_3B, обученная на датасете переведенный на русский язык [s1K-1.1](https://huggingface.co/datasets/dankalin/s1K-1.1-ru). Метод обучения и его параметры почти полностью соответствуют тем, что описаны в статье: [статья](https://arxiv.org/abs/2501.19393) ## Пример кода для запуска: ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "dankalin/ruadapt-s1" model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) SYSTEM_PROMPT = """ Отвечай в формате: ... ... """ input_text = """ 9 игроков бейсбольной команды пошли в кафе-мороженое после игры. Каждый игрок взял один рожок мороженого с одним шариком: шоколадным, ванильным или клубничным. По крайней мере один игрок выбрал каждый вкус, и количество игроков, выбравших шоколадное мороженое, было больше, чем количество игроков, выбравших ванильное, которое, в свою очередь, было больше, чем количество игроков, выбравших клубничное. Пусть $N$ — количество различных вариантов распределения вкусов между игроками, удовлетворяющих этим условиям. Найдите остаток от деления $N$ на 1000.""" messages = [ {'role': 'system', 'content': SYSTEM_PROMPT}, {"role": "user", "content": input_text}, ] input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt") output = model.generate( input_ids, ) generated_text = tokenizer.decode(output[0], skip_special_tokens=True) print(generated_text) ``` ## Наблюдения: Модель демонстрирует значительные отклонения, особенно в решении математических задач. Однако на десятом прогоне [kristaller486/aime2025-ru](https://huggingface.co/datasets/kristaller486/aime2025-ru) она смогла верно решить одну задачу.