Datasets:
metadata
language: ru
tags:
- reinforcement-learning
- grpo
- lis
license: other
LIS fixed datasets (Week 2)
В этом репозитории лежат фиксированные датасеты (jsonl), которые генерируются в train-ноутбуке. Они нужны для воспроизводимого сравнения baseline vs trained.
Формат примера
Каждая строка JSONL имеет вид:
{"prompt": "...", "answer": "..."}
где prompt — это user prompt (условие задачи), а answer — эталонная длина LIS.
System prompt для инференса
При оценке (см. eval-ноутбук) используется системный промпт:
Отвечай в следующем формате:
<think>
...
</think>
<answer>
...
</answer>
Файлы
test
test/test_easy_d2_n200_seed1001.jsonl(difficulty=2, n=200, seed=1001)test/test_hard_d8_n200_seed3001.jsonl(difficulty=8, n=200, seed=3001)test/test_medium_d5_n200_seed2001.jsonl(difficulty=5, n=200, seed=2001)
dev
dev/dev_easy_d2_n128_seed4001.jsonl(difficulty=2, n=128, seed=4001)dev/dev_hard_d8_n128_seed4003.jsonl(difficulty=8, n=128, seed=4003)dev/dev_medium_d5_n128_seed4002.jsonl(difficulty=5, n=128, seed=4002)
train
train/train_phase1_d1-5_d1-5_n8000_seed2025.jsonl()train/train_phase2_d6-10_d6-10_n12000_seed3362_replay20_d4-5.jsonl()train/train_phase2_d6-10_d6-10_n1200_seed3362_replay20_d4-5.jsonl()
Как загрузить через 🤗 Datasets
Пример (подставьте свои имена файлов):
from datasets import load_dataset
repo = "elativus/AI-SelectedTopics-W2"
data_files = {
"test_easy": "test/test_easy_d2_n200_seed1001.jsonl",
"test_medium": "test/test_medium_d5_n200_seed2001.jsonl",
"test_hard": "test/test_hard_d8_n200_seed3001.jsonl",
}
ds = load_dataset(repo, data_files=data_files, split="test_easy")
print(ds[0])