|
|
--- |
|
|
license: mit |
|
|
datasets: |
|
|
- aronDFarkl/scientific_questions_and_relativity |
|
|
language: |
|
|
- es |
|
|
metrics: |
|
|
- accuracy |
|
|
base_model: |
|
|
- DeepESP/gpt2-spanish-medium |
|
|
new_version: aronDFarkl/tars_model_v0.1 |
|
|
pipeline_tag: text-generation |
|
|
library_name: transformers |
|
|
--- |
|
|
# TARS Model v0.1 |
|
|
|
|
|
**Descripción**: |
|
|
TARS es un modelo de lenguaje entrenado para responder preguntas científicas, inspirado en el asistente del mismo nombre de la película *Interstellar*. Este modelo fue entrenado usando un dataset de preguntas científicas y respuestas, con el objetivo de ofrecer respuestas precisas y relevantes basadas en citas científicas. |
|
|
|
|
|
--- |
|
|
|
|
|
# APOYO |
|
|
|
|
|
<a href="https://buymeacoffee.com/aroncachag0" target="_blank"> |
|
|
<button style="background-color: #FFDD00; color: black; font-size: 16px; padding: 10px 20px; border: none; border-radius: 5px; cursor: pointer;"> |
|
|
Apoyar en Buy Me a Coffee |
|
|
</button> |
|
|
</a> |
|
|
|
|
|
|
|
|
## Resultados de Entrenamiento |
|
|
|
|
|
- **Épocas**: 3 |
|
|
- **Pasos de Entrenamiento**: 204 |
|
|
- **Pérdida de Entrenamiento (Loss)**: 0.3446 |
|
|
- **Tiempo Total de Entrenamiento**: 202.67 segundos |
|
|
- **Samples por Segundo**: 3.997 |
|
|
- **Pasos por Segundo**: 1.007 |
|
|
- **Flops Totales**: 376,123,781,283,840.0 |
|
|
|
|
|
**Métricas**: |
|
|
|
|
|
- **Pérdida Final**: 0.3446 |
|
|
- **Época**: 3 |
|
|
|
|
|
--- |
|
|
|
|
|
## Dataset de Entrenamiento |
|
|
|
|
|
Este modelo fue entrenado utilizando el siguiente dataset: |
|
|
|
|
|
- **Nombre del Dataset**: `aronDFarkl/scientific_questions_and_relativity` |
|
|
- **Descripción**: Dataset que contiene preguntas y respuestas sobre la relatividad y otros conceptos científicos. |
|
|
|
|
|
**Columnas**: |
|
|
- `pregunta`: Pregunta científica. |
|
|
- `respuesta`: Respuesta basada en citas científicas. |
|
|
|
|
|
Este dataset proporciona un excelente punto de partida para un modelo de preguntas y respuestas sobre temas científicos, utilizando citas de científicos famosos. |
|
|
|
|
|
--- |
|
|
|
|
|
## Ejemplo de Uso |
|
|
|
|
|
```python |
|
|
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline |
|
|
|
|
|
# Cargar el modelo y tokenizer desde Hugging Face |
|
|
model = AutoModelForCausalLM.from_pretrained("tu_usuario/tars_model_v0.1") |
|
|
tokenizer = AutoTokenizer.from_pretrained("tu_usuario/tars_model_v0.1") |
|
|
|
|
|
# Usar el pipeline de Hugging Face para generar respuestas |
|
|
generator = pipeline("text-generation", model=model, tokenizer=tokenizer) |
|
|
|
|
|
# Realizar una pregunta |
|
|
pregunta = "¿Qué es la relatividad?" |
|
|
respuesta = generator(f"Pregunta: {pregunta}\nRespuesta:", max_length=100) |
|
|
|
|
|
print(respuesta[0]["generated_text"]) |