File size: 2,821 Bytes
52ee364
57ea641
 
 
 
 
 
b0bd07d
57ea641
 
 
 
 
 
 
 
52ee364
 
b0bd07d
52ee364
b0bd07d
52ee364
b0bd07d
52ee364
b0bd07d
 
 
 
 
52ee364
b0bd07d
52ee364
b0bd07d
52ee364
b0bd07d
 
 
 
 
 
 
52ee364
b0bd07d
52ee364
57ea641
 
 
52ee364
b0bd07d
 
 
57ea641
52ee364
b0bd07d
 
 
 
52ee364
b0bd07d
 
 
 
57ea641
 
52ee364
b0bd07d
 
 
 
 
 
52ee364
b0bd07d
52ee364
b0bd07d
 
 
 
 
 
 
 
 
52ee364
 
b0bd07d
52ee364
57ea641
b0bd07d
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
---
language: it
license: apache-2.0
library_name: peft
base_model: Qwen/Qwen2.5-1.5B
tags:
  - lora
  - peft
  - baseline
  - flat-training
  - math
  - arithmetic
  - control-group
datasets:
  - custom
pipeline_tag: text-generation
---

# Architettura Cognitiva Progressiva — Flat-LoRA (Italiano, Controllo)

**Modello di controllo** — Qwen2.5-1.5B addestrato con tutti i dati in un singolo passaggio (senza fasi, senza pruning). Serve come baseline per valutare l'addestramento progressivo.

## 📊 Risultati

| Metrica | Flat-LoRA (questo) | Dream-LoRA | Progressive-LoRA |
|---------|-------------------|-----------|-----------------|
| Accuratezza Esatta | **60.6%** | 58.6% ± 2.9 | 37.0% ± 0.5 |
| Number Sense | 0.0% | **60.0% ± 0.8** | **57.7% ± 0.5** |
| Metacognizione | 0.0% | **100.0%** | **98.5%** |

Il flat training raggiunge la migliore accuratezza esatta ma **non sviluppa né number sense né metacognizione** — dimostrando che queste sono capacità emergenti dell'architettura progressiva, non del dato.

## 🔧 Configurazione

| Parametro | Valore |
|-----------|--------|
| Modello Base | Qwen/Qwen2.5-1.5B |
| LoRA Rank | 16 |
| LoRA Alpha | 32 |
| Target LoRA | q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj |
| Lingua Dati | Italiano |

## 🚀 Uso Rapido

```python
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel

base_model = AutoModelForCausalLM.from_pretrained(
    "Qwen/Qwen2.5-1.5B", device_map="auto", torch_dtype="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-1.5B")

model = PeftModel.from_pretrained(
    base_model,
    "dexmac/progressive-cognitive-baseline-lora"
)

messages = [{"role": "user", "content": "Calcola: 342 * 67"}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200, temperature=0.1)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```

## 🔗 Modelli Correlati

- [**Dream-LoRA (IT)**](https://huggingface.co/dexmac/progressive-cognitive-dream-lora) — Addestramento progressivo + Dream Pruning
- [Progressive-LoRA (IT)](https://huggingface.co/dexmac/progressive-cognitive-lora) — Primo prototipo con magnitude pruning
- [1.5B Flat (EN)](https://huggingface.co/dexmac/progressive-cognitive-baseline-lora-en) — Equivalente inglese
- [GitHub](https://github.com/dexmac221/progressive-cognitive) — Codice sorgente completo

## 📝 Citation

```bibtex
@software{progressive_cognitive_2026,
  author = {Dex Mac},
  title = {Progressive Cognitive Architecture for LLMs},
  year = {2026},
  url = {https://github.com/dexmac221/progressive-cognitive},
  version = {1.0.0}
}
```


## 📄 License

Apache 2.0