Llama-3-8B Fine-Tuned con Databricks Dolly-15k
📖 Descripción del Modelo
Este modelo es una versión optimizada de Llama-3-8B (Meta) ajustada para seguir instrucciones de manera más precisa. Se ha utilizado la técnica de Fine-Tuning Eficiente (PEFT) mediante LoRA sobre una versión cuantizada de 4 bits.
- Desarrollado por: [Aleberna5]
- Modelo Base:
unsloth/llama-3-8b-bnb-4bit(Llama-3-8B optimizado) - Dataset:
databricks/databricks-dolly-15k - Tipo de entrenamiento: Causal Language Modeling (Instruction Following)
📚 Dataset de Entrenamiento
El modelo fue entrenado con el dataset Dolly-15k, que contiene aproximadamente 15,000 registros generados por humanos en categorías como:
- Respuesta a preguntas (Q&A)
- Extracción de información
- Resumen de textos
- Escritura creativa y lluvia de ideas
🛠️ Detalles Técnicos y Configuración
El entrenamiento se realizó en un entorno de Google Colab utilizando una GPU NVIDIA T4.
Parámetros de LoRA (PEFT):
- Rank (r): 16
- Alpha: 32
- Target Modules: q_proj, k_proj, v_proj, o_proj
- Dropout: 0.05
Hiperparámetros de Entrenamiento:
- Optimizador: Paged AdamW 32-bit
- Learning Rate: 2e-4
- Steps: 60
- Batch Size: 1 (con 8 pasos de acumulación de gradiente)
- Precisión: FP16 (Mixed Precision)
🚀 Cómo utilizarlo
Para cargar este modelo, necesitas tener instaladas las librerías peft, transformers y bitsandbytes.
from peft import PeftModel
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_id = "unsloth/llama-3-8b-bnb-4bit"
adapter_id = "TU_USUARIO/TU_MODELO"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", torch_dtype=torch.float16)
model = PeftModel.from_pretrained(model, adapter_id)
prompt = "### Inst:\nExplain why the sky is blue.\n### Resp:\n"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
- Downloads last month
- 36
Model tree for Aleberna5/llama3-8b-dolly-instruct
Base model
meta-llama/Meta-Llama-3-8B Quantized
unsloth/llama-3-8b-bnb-4bit