tars_model_v0.1 / README.md
aronDFarkl's picture
Update README.md
8a40fdf verified
metadata
license: mit
datasets:
  - aronDFarkl/scientific_questions_and_relativity
language:
  - es
metrics:
  - accuracy
base_model:
  - DeepESP/gpt2-spanish-medium
new_version: aronDFarkl/tars_model_v0.1
pipeline_tag: text-generation
library_name: transformers

TARS Model v0.1

Descripción:
TARS es un modelo de lenguaje entrenado para responder preguntas científicas, inspirado en el asistente del mismo nombre de la película Interstellar. Este modelo fue entrenado usando un dataset de preguntas científicas y respuestas, con el objetivo de ofrecer respuestas precisas y relevantes basadas en citas científicas.


APOYO

Resultados de Entrenamiento

  • Épocas: 3
  • Pasos de Entrenamiento: 204
  • Pérdida de Entrenamiento (Loss): 0.3446
  • Tiempo Total de Entrenamiento: 202.67 segundos
  • Samples por Segundo: 3.997
  • Pasos por Segundo: 1.007
  • Flops Totales: 376,123,781,283,840.0

Métricas:

  • Pérdida Final: 0.3446
  • Época: 3

Dataset de Entrenamiento

Este modelo fue entrenado utilizando el siguiente dataset:

  • Nombre del Dataset: aronDFarkl/scientific_questions_and_relativity
  • Descripción: Dataset que contiene preguntas y respuestas sobre la relatividad y otros conceptos científicos.

Columnas:

  • pregunta: Pregunta científica.
  • respuesta: Respuesta basada en citas científicas.

Este dataset proporciona un excelente punto de partida para un modelo de preguntas y respuestas sobre temas científicos, utilizando citas de científicos famosos.


Ejemplo de Uso

from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline

# Cargar el modelo y tokenizer desde Hugging Face
model = AutoModelForCausalLM.from_pretrained("tu_usuario/tars_model_v0.1")
tokenizer = AutoTokenizer.from_pretrained("tu_usuario/tars_model_v0.1")

# Usar el pipeline de Hugging Face para generar respuestas
generator = pipeline("text-generation", model=model, tokenizer=tokenizer)

# Realizar una pregunta
pregunta = "¿Qué es la relatividad?"
respuesta = generator(f"Pregunta: {pregunta}\nRespuesta:", max_length=100)

print(respuesta[0]["generated_text"])