File size: 2,423 Bytes
c51a563
 
 
 
 
 
 
 
 
 
 
 
1f875d0
c51a563
bf77dbd
 
 
 
 
 
 
8a40fdf
 
 
 
 
 
 
 
 
bf77dbd
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
c51a563
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
---
license: mit
datasets:
- aronDFarkl/scientific_questions_and_relativity
language:
- es
metrics:
- accuracy
base_model:
- DeepESP/gpt2-spanish-medium
new_version: aronDFarkl/tars_model_v0.1
pipeline_tag: text-generation
library_name: transformers
---
# TARS Model v0.1

**Descripción**:  
TARS es un modelo de lenguaje entrenado para responder preguntas científicas, inspirado en el asistente del mismo nombre de la película *Interstellar*. Este modelo fue entrenado usando un dataset de preguntas científicas y respuestas, con el objetivo de ofrecer respuestas precisas y relevantes basadas en citas científicas.

---

# APOYO

<a href="https://buymeacoffee.com/aroncachag0" target="_blank">
  <button style="background-color: #FFDD00; color: black; font-size: 16px; padding: 10px 20px; border: none; border-radius: 5px; cursor: pointer;">
    Apoyar en Buy Me a Coffee
  </button>
</a>


## Resultados de Entrenamiento

- **Épocas**: 3
- **Pasos de Entrenamiento**: 204
- **Pérdida de Entrenamiento (Loss)**: 0.3446
- **Tiempo Total de Entrenamiento**: 202.67 segundos
- **Samples por Segundo**: 3.997
- **Pasos por Segundo**: 1.007
- **Flops Totales**: 376,123,781,283,840.0

**Métricas**:

- **Pérdida Final**: 0.3446
- **Época**: 3

---

## Dataset de Entrenamiento

Este modelo fue entrenado utilizando el siguiente dataset:

- **Nombre del Dataset**: `aronDFarkl/scientific_questions_and_relativity`
- **Descripción**: Dataset que contiene preguntas y respuestas sobre la relatividad y otros conceptos científicos.

**Columnas**:
- `pregunta`: Pregunta científica.
- `respuesta`: Respuesta basada en citas científicas.

Este dataset proporciona un excelente punto de partida para un modelo de preguntas y respuestas sobre temas científicos, utilizando citas de científicos famosos.

---

## Ejemplo de Uso

```python
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline

# Cargar el modelo y tokenizer desde Hugging Face
model = AutoModelForCausalLM.from_pretrained("tu_usuario/tars_model_v0.1")
tokenizer = AutoTokenizer.from_pretrained("tu_usuario/tars_model_v0.1")

# Usar el pipeline de Hugging Face para generar respuestas
generator = pipeline("text-generation", model=model, tokenizer=tokenizer)

# Realizar una pregunta
pregunta = "¿Qué es la relatividad?"
respuesta = generator(f"Pregunta: {pregunta}\nRespuesta:", max_length=100)

print(respuesta[0]["generated_text"])