File size: 891 Bytes
fc3ca93 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 | ---
language: es
tags:
- mixtral
- text-generation
- moe
license: apache-2.0
pipeline_tag: text-generation
---
# CHIP 2.0
Este es el modelo `CHIP 2.0`, basado en la arquitectura Mixtral, afinado para generar respuestas breves y naturales en espa帽ol para un asistente virtual.
- 馃 Arquitectura: MixtralForCausalLM
- 馃棧 Idioma principal: Espa帽ol
- 馃幆 Aplicaci贸n: Asistente inteligente (preguntas cotidianas, respuestas naturales)
- 馃攣 Tipo: Generaci贸n de texto
## Uso
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("HarlockDestroyer/chip2.0")
model = AutoModelForCausalLM.from_pretrained("HarlockDestroyer/chip2.0")
inputs = tokenizer("Hola, 驴c贸mo est谩s?", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=50)
print(tokenizer.decode(outputs[0]))
|