Model Card for codellama-edugen-v2
Adapter LoRA/QLoRA para CodeLlama-7b-Instruct-hf, especializado en generar ejercicios educativos de Python para ciencia de datos con formato estructurado.
Model Details
Model Description
Este modelo fue afinado para producir salidas con formato educativo consistente:
## OBJETIVO## DATASET## CODIGO## EXPLICACION
Enfocado en ejercicios de pandas/numpy/matplotlib, en espa帽ol, con dataset sint茅tico local (rows) y sin lecturas de archivos.
- Developed by: Proyecto JIA (Pepisxd)
- Model type: PEFT LoRA adapter (Causal LM)
- Language(s) (NLP): Espa帽ol (principal)
- License: Hereda t茅rminos del modelo base (
llama2) - Finetuned from model:
codellama/CodeLlama-7b-Instruct-hf
Model Sources
- Repository: https://github.com/Pepisxd/JIA
Uses
Direct Use
Generaci贸n de ejercicios educativos de Python para pr谩ctica guiada en backend/API.
Out-of-Scope Use
- Asistencia legal/m茅dica/financiera de alto riesgo.
- Uso como fuente 煤nica de verdad factual.
- C贸digo para ejecuci贸n en entornos inseguros sin validaci贸n.
Bias, Risks, and Limitations
- Puede alucinar columnas o instrucciones si no hay validaci贸n externa.
- Puede requerir repair loop para cumplir completamente formato y calidad educativa.
- Calidad depende del prompt y del pipeline de validadores.
Recommendations
- Usar con validadores de formato/ejecuci贸n.
- Ejecutar c贸digo en sandbox.
- Aplicar repair loop cuando falle ejecuci贸n o criterios educativos.
How to Get Started with the Model
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
from peft import PeftModel
base_model = "codellama/CodeLlama-7b-Instruct-hf"
adapter_path = "TU_USUARIO/codellama-edugen-v2"
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_use_double_quant=True,
bnb_4bit_compute_dtype=torch.float16,
)
tokenizer = AutoTokenizer.from_pretrained(adapter_path)
if tokenizer.pad_token is None and tokenizer.eos_token is not None:
tokenizer.pad_token = tokenizer.eos_token
model = AutoModelForCausalLM.from_pretrained(
base_model,
device_map="auto",
torch_dtype=torch.float16,
quantization_config=bnb_config,
)
model = PeftModel.from_pretrained(model, adapter_path)
model.eval()
- Downloads last month
- 130
Model tree for Pepisxd/codellama-edugen-v2
Base model
codellama/CodeLlama-7b-Instruct-hf