| | ---
|
| | language: es
|
| | tags:
|
| | - mixtral
|
| | - text-generation
|
| | - moe
|
| | license: apache-2.0
|
| | pipeline_tag: text-generation
|
| | ---
|
| |
|
| | # CHIP 2.0
|
| |
|
| | Este es el modelo `CHIP 2.0`, basado en la arquitectura Mixtral, afinado para generar respuestas breves y naturales en espa帽ol para un asistente virtual.
|
| |
|
| | - 馃 Arquitectura: MixtralForCausalLM
|
| | - 馃棧 Idioma principal: Espa帽ol
|
| | - 馃幆 Aplicaci贸n: Asistente inteligente (preguntas cotidianas, respuestas naturales)
|
| | - 馃攣 Tipo: Generaci贸n de texto
|
| |
|
| | ## Uso
|
| |
|
| | ```python
|
| | from transformers import AutoTokenizer, AutoModelForCausalLM
|
| |
|
| | tokenizer = AutoTokenizer.from_pretrained("HarlockDestroyer/chip2.0")
|
| | model = AutoModelForCausalLM.from_pretrained("HarlockDestroyer/chip2.0")
|
| |
|
| | inputs = tokenizer("Hola, 驴c贸mo est谩s?", return_tensors="pt")
|
| | outputs = model.generate(**inputs, max_new_tokens=50)
|
| | print(tokenizer.decode(outputs[0]))
|
| | |