Llama-3-8B Fine-Tuned con Databricks Dolly-15k

📖 Descripción del Modelo

Este modelo es una versión optimizada de Llama-3-8B (Meta) ajustada para seguir instrucciones de manera más precisa. Se ha utilizado la técnica de Fine-Tuning Eficiente (PEFT) mediante LoRA sobre una versión cuantizada de 4 bits.

  • Desarrollado por: [Aleberna5]
  • Modelo Base: unsloth/llama-3-8b-bnb-4bit (Llama-3-8B optimizado)
  • Dataset: databricks/databricks-dolly-15k
  • Tipo de entrenamiento: Causal Language Modeling (Instruction Following)

📚 Dataset de Entrenamiento

El modelo fue entrenado con el dataset Dolly-15k, que contiene aproximadamente 15,000 registros generados por humanos en categorías como:

  • Respuesta a preguntas (Q&A)
  • Extracción de información
  • Resumen de textos
  • Escritura creativa y lluvia de ideas

🛠️ Detalles Técnicos y Configuración

El entrenamiento se realizó en un entorno de Google Colab utilizando una GPU NVIDIA T4.

Parámetros de LoRA (PEFT):

  • Rank (r): 16
  • Alpha: 32
  • Target Modules: q_proj, k_proj, v_proj, o_proj
  • Dropout: 0.05

Hiperparámetros de Entrenamiento:

  • Optimizador: Paged AdamW 32-bit
  • Learning Rate: 2e-4
  • Steps: 60
  • Batch Size: 1 (con 8 pasos de acumulación de gradiente)
  • Precisión: FP16 (Mixed Precision)

🚀 Cómo utilizarlo

Para cargar este modelo, necesitas tener instaladas las librerías peft, transformers y bitsandbytes.

from peft import PeftModel
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_id = "unsloth/llama-3-8b-bnb-4bit"
adapter_id = "TU_USUARIO/TU_MODELO"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", torch_dtype=torch.float16)
model = PeftModel.from_pretrained(model, adapter_id)

prompt = "### Inst:\nExplain why the sky is blue.\n### Resp:\n"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Downloads last month
36
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Aleberna5/llama3-8b-dolly-instruct

Adapter
(282)
this model

Dataset used to train Aleberna5/llama3-8b-dolly-instruct