aplicadaT1-complete / README.md
mhidper's picture
Update README.md
bff9e81 verified
metadata
license: mit
language:
  - es
base_model:
  - mistralai/Mixtral-8x7B-Instruct-v0.1
pipeline_tag: text-generation
new_version: mistralai/Mistral-7B-Instruct-v0.1
library_name: transformers
tags:
  - applied
  - economics

Modelo aplicadaT1

Este es un modelo de lenguaje basado en Mistral, ajustado para aplicaciones educativas.

Uso del modelo

from transformers import AutoModelForCausalLM, AutoTokenizer

# Cargar modelo y tokenizer
tokenizer = AutoTokenizer.from_pretrained("mhidper/aplicadaT1-complete")
model = AutoModelForCausalLM.from_pretrained("mhidper/aplicadaT1-complete")

# Ejemplo de uso
input_text = "### Instruction: Explica el concepto de derivadas en cálculo.\n\n### Response:"
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
output = model.generate(input_ids, max_length=500)
print(tokenizer.decode(output[0], skip_special_tokens=True))