File size: 1,036 Bytes
a9e6c7a
 
 
 
 
bd81d9a
 
 
 
 
 
a9e6c7a
 
85fed87
3f85e92
 
 
d2c46b2
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
---
library_name: transformers
tags:
- trl
- reward-trainer
datasets:
- HumanLLMs/Human-Like-DPO-Dataset
language:
- en
base_model:
- HuggingFaceTB/SmolLM-135M-Instruct
---

## Описание модели
Модель была создана для дообучения "HuggingFaceTB/SmolLM-135M-Instruct" с использованием Proximal Policy Optimization
(PPO)

Правильно оценивает сгенерированный моделью текст, на обучающем датасете показала большие различия в оценках для 'chosen' и 'rejected'
## Как использовать:
```python
reward_model = AutoModelForSequenceClassification.from_pretrained(
        MODEL_ID,
        num_labels=1
    )
reward_model.to(device)

inputs_chosen = tokenizer.apply_chat_template(['some text', tokenize=False)
inputs_chosen = tokenizer(inputs_chosen, return_tensors="pt").to(DEVICE)
score_chosen = reward_model(**inputs_chosen).logits[0].cpu().detach()
print(score_chosen)
```