--- license: mit datasets: - aronDFarkl/scientific_questions_and_relativity language: - es metrics: - accuracy base_model: - DeepESP/gpt2-spanish-medium new_version: aronDFarkl/tars_model_v0.1 pipeline_tag: text-generation library_name: transformers --- # TARS Model v0.1 **Descripción**: TARS es un modelo de lenguaje entrenado para responder preguntas científicas, inspirado en el asistente del mismo nombre de la película *Interstellar*. Este modelo fue entrenado usando un dataset de preguntas científicas y respuestas, con el objetivo de ofrecer respuestas precisas y relevantes basadas en citas científicas. --- # APOYO ## Resultados de Entrenamiento - **Épocas**: 3 - **Pasos de Entrenamiento**: 204 - **Pérdida de Entrenamiento (Loss)**: 0.3446 - **Tiempo Total de Entrenamiento**: 202.67 segundos - **Samples por Segundo**: 3.997 - **Pasos por Segundo**: 1.007 - **Flops Totales**: 376,123,781,283,840.0 **Métricas**: - **Pérdida Final**: 0.3446 - **Época**: 3 --- ## Dataset de Entrenamiento Este modelo fue entrenado utilizando el siguiente dataset: - **Nombre del Dataset**: `aronDFarkl/scientific_questions_and_relativity` - **Descripción**: Dataset que contiene preguntas y respuestas sobre la relatividad y otros conceptos científicos. **Columnas**: - `pregunta`: Pregunta científica. - `respuesta`: Respuesta basada en citas científicas. Este dataset proporciona un excelente punto de partida para un modelo de preguntas y respuestas sobre temas científicos, utilizando citas de científicos famosos. --- ## Ejemplo de Uso ```python from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline # Cargar el modelo y tokenizer desde Hugging Face model = AutoModelForCausalLM.from_pretrained("tu_usuario/tars_model_v0.1") tokenizer = AutoTokenizer.from_pretrained("tu_usuario/tars_model_v0.1") # Usar el pipeline de Hugging Face para generar respuestas generator = pipeline("text-generation", model=model, tokenizer=tokenizer) # Realizar una pregunta pregunta = "¿Qué es la relatividad?" respuesta = generator(f"Pregunta: {pregunta}\nRespuesta:", max_length=100) print(respuesta[0]["generated_text"])