Model Card for codellama-edugen-v2

Adapter LoRA/QLoRA para CodeLlama-7b-Instruct-hf, especializado en generar ejercicios educativos de Python para ciencia de datos con formato estructurado.

Model Details

Model Description

Este modelo fue afinado para producir salidas con formato educativo consistente:

  • ## OBJETIVO
  • ## DATASET
  • ## CODIGO
  • ## EXPLICACION

Enfocado en ejercicios de pandas/numpy/matplotlib, en espa帽ol, con dataset sint茅tico local (rows) y sin lecturas de archivos.

  • Developed by: Proyecto JIA (Pepisxd)
  • Model type: PEFT LoRA adapter (Causal LM)
  • Language(s) (NLP): Espa帽ol (principal)
  • License: Hereda t茅rminos del modelo base (llama2)
  • Finetuned from model: codellama/CodeLlama-7b-Instruct-hf

Model Sources

Uses

Direct Use

Generaci贸n de ejercicios educativos de Python para pr谩ctica guiada en backend/API.

Out-of-Scope Use

  • Asistencia legal/m茅dica/financiera de alto riesgo.
  • Uso como fuente 煤nica de verdad factual.
  • C贸digo para ejecuci贸n en entornos inseguros sin validaci贸n.

Bias, Risks, and Limitations

  • Puede alucinar columnas o instrucciones si no hay validaci贸n externa.
  • Puede requerir repair loop para cumplir completamente formato y calidad educativa.
  • Calidad depende del prompt y del pipeline de validadores.

Recommendations

  • Usar con validadores de formato/ejecuci贸n.
  • Ejecutar c贸digo en sandbox.
  • Aplicar repair loop cuando falle ejecuci贸n o criterios educativos.

How to Get Started with the Model

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
from peft import PeftModel

base_model = "codellama/CodeLlama-7b-Instruct-hf"
adapter_path = "TU_USUARIO/codellama-edugen-v2"

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_use_double_quant=True,
    bnb_4bit_compute_dtype=torch.float16,
)

tokenizer = AutoTokenizer.from_pretrained(adapter_path)
if tokenizer.pad_token is None and tokenizer.eos_token is not None:
    tokenizer.pad_token = tokenizer.eos_token

model = AutoModelForCausalLM.from_pretrained(
    base_model,
    device_map="auto",
    torch_dtype=torch.float16,
    quantization_config=bnb_config,
)
model = PeftModel.from_pretrained(model, adapter_path)
model.eval()
Downloads last month
130
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support

Model tree for Pepisxd/codellama-edugen-v2

Adapter
(372)
this model