tars_model_v0.1 / README.md
aronDFarkl's picture
Update README.md
8a40fdf verified
---
license: mit
datasets:
- aronDFarkl/scientific_questions_and_relativity
language:
- es
metrics:
- accuracy
base_model:
- DeepESP/gpt2-spanish-medium
new_version: aronDFarkl/tars_model_v0.1
pipeline_tag: text-generation
library_name: transformers
---
# TARS Model v0.1
**Descripción**:
TARS es un modelo de lenguaje entrenado para responder preguntas científicas, inspirado en el asistente del mismo nombre de la película *Interstellar*. Este modelo fue entrenado usando un dataset de preguntas científicas y respuestas, con el objetivo de ofrecer respuestas precisas y relevantes basadas en citas científicas.
---
# APOYO
<a href="https://buymeacoffee.com/aroncachag0" target="_blank">
<button style="background-color: #FFDD00; color: black; font-size: 16px; padding: 10px 20px; border: none; border-radius: 5px; cursor: pointer;">
Apoyar en Buy Me a Coffee
</button>
</a>
## Resultados de Entrenamiento
- **Épocas**: 3
- **Pasos de Entrenamiento**: 204
- **Pérdida de Entrenamiento (Loss)**: 0.3446
- **Tiempo Total de Entrenamiento**: 202.67 segundos
- **Samples por Segundo**: 3.997
- **Pasos por Segundo**: 1.007
- **Flops Totales**: 376,123,781,283,840.0
**Métricas**:
- **Pérdida Final**: 0.3446
- **Época**: 3
---
## Dataset de Entrenamiento
Este modelo fue entrenado utilizando el siguiente dataset:
- **Nombre del Dataset**: `aronDFarkl/scientific_questions_and_relativity`
- **Descripción**: Dataset que contiene preguntas y respuestas sobre la relatividad y otros conceptos científicos.
**Columnas**:
- `pregunta`: Pregunta científica.
- `respuesta`: Respuesta basada en citas científicas.
Este dataset proporciona un excelente punto de partida para un modelo de preguntas y respuestas sobre temas científicos, utilizando citas de científicos famosos.
---
## Ejemplo de Uso
```python
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
# Cargar el modelo y tokenizer desde Hugging Face
model = AutoModelForCausalLM.from_pretrained("tu_usuario/tars_model_v0.1")
tokenizer = AutoTokenizer.from_pretrained("tu_usuario/tars_model_v0.1")
# Usar el pipeline de Hugging Face para generar respuestas
generator = pipeline("text-generation", model=model, tokenizer=tokenizer)
# Realizar una pregunta
pregunta = "¿Qué es la relatividad?"
respuesta = generator(f"Pregunta: {pregunta}\nRespuesta:", max_length=100)
print(respuesta[0]["generated_text"])