File size: 1,873 Bytes
e4ce9cd
 
 
 
 
b6531ca
e4ce9cd
 
 
 
 
b6531ca
e4ce9cd
 
 
b6531ca
 
 
e4ce9cd
b6531ca
e4ce9cd
b6531ca
e4ce9cd
b6531ca
e4ce9cd
b6531ca
e4ce9cd
b6531ca
e4ce9cd
b6531ca
e4ce9cd
b6531ca
e4ce9cd
b6531ca
e4ce9cd
b6531ca
e4ce9cd
 
 
 
b6531ca
e4ce9cd
 
 
 
b6531ca
 
 
 
 
 
 
 
 
e4ce9cd
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
---
license: apache-2.0
base_model: ibaucells/RoBERTa-ca-CaWikiTC
tags:
- generated_from_trainer
- zero-shot_classification
model-index:
- name: test6_balanced
  results: []
---

<!-- Este modelo ha sido ajustado autom谩ticamente seg煤n la informaci贸n a la que el Trainer tuvo acceso. Deber铆as revisarlo y completarlo, luego elimina este comentario. -->

# test6_balanced

Este modelo ha sido ajustado para la clasificaci贸n de cero disparos utilizando una versi贸n preentrenada de [ibaucells/RoBERTa-ca-CaWikiTC](https://huggingface.co/ibaucells/RoBERTa-ca-CaWikiTC) en el conjunto de datos None.
Logra los siguientes resultados en el conjunto de evaluaci贸n:
- P茅rdida: 1.6982

## Descripci贸n del modelo

Se necesita m谩s informaci贸n sobre este modelo. 

## Usos previstos y limitaciones

Se necesita m谩s informaci贸n sobre los usos previstos y las limitaciones de este modelo.

## Datos de entrenamiento y evaluaci贸n

Se necesita m谩s informaci贸n sobre los datos utilizados para entrenar y evaluar este modelo.

## Procedimiento de entrenamiento

### Hiperpar谩metros de entrenamiento

Se utilizaron los siguientes hiperpar谩metros durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 10
- eval_batch_size: 10
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 25

### Resultados del entrenamiento

| P茅rdida de entrenamiento | 脡poca | Paso | P茅rdida de validaci贸n |
|:------------------------:|:-----:|:----:|:---------------------:|
| 2.8358                   | 1.0   | 63   | 2.8655                |
| 2.8469                   | 2.0   | 126  | 2.8447                |
| ...                      | ...   | ...  | ...                   |

### Versiones del framework

- Transformers 4.38.2
- Pytorch 2.1.0+cu121
- Datasets 2.18.0
- Tokenizers 0.15.2