File size: 2,821 Bytes
52ee364 57ea641 b0bd07d 57ea641 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 57ea641 52ee364 b0bd07d 57ea641 52ee364 b0bd07d 52ee364 b0bd07d 57ea641 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 b0bd07d 52ee364 57ea641 b0bd07d | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 | ---
language: it
license: apache-2.0
library_name: peft
base_model: Qwen/Qwen2.5-1.5B
tags:
- lora
- peft
- baseline
- flat-training
- math
- arithmetic
- control-group
datasets:
- custom
pipeline_tag: text-generation
---
# Architettura Cognitiva Progressiva — Flat-LoRA (Italiano, Controllo)
**Modello di controllo** — Qwen2.5-1.5B addestrato con tutti i dati in un singolo passaggio (senza fasi, senza pruning). Serve come baseline per valutare l'addestramento progressivo.
## 📊 Risultati
| Metrica | Flat-LoRA (questo) | Dream-LoRA | Progressive-LoRA |
|---------|-------------------|-----------|-----------------|
| Accuratezza Esatta | **60.6%** | 58.6% ± 2.9 | 37.0% ± 0.5 |
| Number Sense | 0.0% | **60.0% ± 0.8** | **57.7% ± 0.5** |
| Metacognizione | 0.0% | **100.0%** | **98.5%** |
Il flat training raggiunge la migliore accuratezza esatta ma **non sviluppa né number sense né metacognizione** — dimostrando che queste sono capacità emergenti dell'architettura progressiva, non del dato.
## 🔧 Configurazione
| Parametro | Valore |
|-----------|--------|
| Modello Base | Qwen/Qwen2.5-1.5B |
| LoRA Rank | 16 |
| LoRA Alpha | 32 |
| Target LoRA | q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj |
| Lingua Dati | Italiano |
## 🚀 Uso Rapido
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
base_model = AutoModelForCausalLM.from_pretrained(
"Qwen/Qwen2.5-1.5B", device_map="auto", torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-1.5B")
model = PeftModel.from_pretrained(
base_model,
"dexmac/progressive-cognitive-baseline-lora"
)
messages = [{"role": "user", "content": "Calcola: 342 * 67"}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200, temperature=0.1)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
## 🔗 Modelli Correlati
- [**Dream-LoRA (IT)**](https://huggingface.co/dexmac/progressive-cognitive-dream-lora) — Addestramento progressivo + Dream Pruning
- [Progressive-LoRA (IT)](https://huggingface.co/dexmac/progressive-cognitive-lora) — Primo prototipo con magnitude pruning
- [1.5B Flat (EN)](https://huggingface.co/dexmac/progressive-cognitive-baseline-lora-en) — Equivalente inglese
- [GitHub](https://github.com/dexmac221/progressive-cognitive) — Codice sorgente completo
## 📝 Citation
```bibtex
@software{progressive_cognitive_2026,
author = {Dex Mac},
title = {Progressive Cognitive Architecture for LLMs},
year = {2026},
url = {https://github.com/dexmac221/progressive-cognitive},
version = {1.0.0}
}
```
## 📄 License
Apache 2.0
|