--- language: es tags: - mixtral - text-generation - moe license: apache-2.0 pipeline_tag: text-generation --- # CHIP 2.0 Este es el modelo `CHIP 2.0`, basado en la arquitectura Mixtral, afinado para generar respuestas breves y naturales en español para un asistente virtual. - 🧠 Arquitectura: MixtralForCausalLM - 🗣 Idioma principal: Español - 🎯 Aplicación: Asistente inteligente (preguntas cotidianas, respuestas naturales) - 🔁 Tipo: Generación de texto ## Uso ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("HarlockDestroyer/chip2.0") model = AutoModelForCausalLM.from_pretrained("HarlockDestroyer/chip2.0") inputs = tokenizer("Hola, ¿cómo estás?", return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=50) print(tokenizer.decode(outputs[0]))