Modelo: Ignaciohhhhggfgjfrffd/SLM-Unified-Expert-Finetuned
Detalles del Modelo
Este es un Small Language Model (SLM) con aproximadamente 51.21M de par谩metros, entrenado desde cero.
Arquitectura
- Capas: 8
- Cabezales de Atenci贸n: 8
- Dimensi贸n de Embeddings: 512
- Tama帽o de Vocabulario: 50257
- Tama帽o de Contexto: 512
Proceso de Entrenamiento
- Pre-entrenamiento: Entrenado sobre un corpus masivo y diverso de texto y c贸digo.
- Afinamiento Unificado: Afinamiento sobre una mezcla de 10 datasets especializados.
C贸mo Usar
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "Ignaciohhhhggfgjfrffd/SLM-Unified-Expert-Finetuned"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
messages = [{"role": "user", "content": "Escribe un poema corto sobre el universo."}]
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs, skip_special_tokens=False))
- Downloads last month
- 1