Modelo: Ignaciohhhhggfgjfrffd/SLM-Unified-Expert-Finetuned

Detalles del Modelo

Este es un Small Language Model (SLM) con aproximadamente 51.21M de par谩metros, entrenado desde cero.

Arquitectura

  • Capas: 8
  • Cabezales de Atenci贸n: 8
  • Dimensi贸n de Embeddings: 512
  • Tama帽o de Vocabulario: 50257
  • Tama帽o de Contexto: 512

Proceso de Entrenamiento

  1. Pre-entrenamiento: Entrenado sobre un corpus masivo y diverso de texto y c贸digo.
  2. Afinamiento Unificado: Afinamiento sobre una mezcla de 10 datasets especializados.

C贸mo Usar

from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "Ignaciohhhhggfgjfrffd/SLM-Unified-Expert-Finetuned"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
messages = [{"role": "user", "content": "Escribe un poema corto sobre el universo."}]
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs, skip_special_tokens=False))
Downloads last month
1
Safetensors
Model size
51.2M params
Tensor type
F32
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support