dexmac's picture
Upload README.md with huggingface_hub
b0bd07d verified
---
language: it
license: apache-2.0
library_name: peft
base_model: Qwen/Qwen2.5-1.5B
tags:
- lora
- peft
- baseline
- flat-training
- math
- arithmetic
- control-group
datasets:
- custom
pipeline_tag: text-generation
---
# Architettura Cognitiva Progressiva — Flat-LoRA (Italiano, Controllo)
**Modello di controllo** — Qwen2.5-1.5B addestrato con tutti i dati in un singolo passaggio (senza fasi, senza pruning). Serve come baseline per valutare l'addestramento progressivo.
## 📊 Risultati
| Metrica | Flat-LoRA (questo) | Dream-LoRA | Progressive-LoRA |
|---------|-------------------|-----------|-----------------|
| Accuratezza Esatta | **60.6%** | 58.6% ± 2.9 | 37.0% ± 0.5 |
| Number Sense | 0.0% | **60.0% ± 0.8** | **57.7% ± 0.5** |
| Metacognizione | 0.0% | **100.0%** | **98.5%** |
Il flat training raggiunge la migliore accuratezza esatta ma **non sviluppa né number sense né metacognizione** — dimostrando che queste sono capacità emergenti dell'architettura progressiva, non del dato.
## 🔧 Configurazione
| Parametro | Valore |
|-----------|--------|
| Modello Base | Qwen/Qwen2.5-1.5B |
| LoRA Rank | 16 |
| LoRA Alpha | 32 |
| Target LoRA | q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj |
| Lingua Dati | Italiano |
## 🚀 Uso Rapido
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
base_model = AutoModelForCausalLM.from_pretrained(
"Qwen/Qwen2.5-1.5B", device_map="auto", torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-1.5B")
model = PeftModel.from_pretrained(
base_model,
"dexmac/progressive-cognitive-baseline-lora"
)
messages = [{"role": "user", "content": "Calcola: 342 * 67"}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200, temperature=0.1)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
## 🔗 Modelli Correlati
- [**Dream-LoRA (IT)**](https://huggingface.co/dexmac/progressive-cognitive-dream-lora) — Addestramento progressivo + Dream Pruning
- [Progressive-LoRA (IT)](https://huggingface.co/dexmac/progressive-cognitive-lora) — Primo prototipo con magnitude pruning
- [1.5B Flat (EN)](https://huggingface.co/dexmac/progressive-cognitive-baseline-lora-en) — Equivalente inglese
- [GitHub](https://github.com/dexmac221/progressive-cognitive) — Codice sorgente completo
## 📝 Citation
```bibtex
@software{progressive_cognitive_2026,
author = {Dex Mac},
title = {Progressive Cognitive Architecture for LLMs},
year = {2026},
url = {https://github.com/dexmac221/progressive-cognitive},
version = {1.0.0}
}
```
## 📄 License
Apache 2.0