--- language: it license: apache-2.0 library_name: peft base_model: Qwen/Qwen2.5-1.5B tags: - lora - peft - baseline - flat-training - math - arithmetic - control-group datasets: - custom pipeline_tag: text-generation --- # Architettura Cognitiva Progressiva β€” Flat-LoRA (Italiano, Controllo) **Modello di controllo** β€” Qwen2.5-1.5B addestrato con tutti i dati in un singolo passaggio (senza fasi, senza pruning). Serve come baseline per valutare l'addestramento progressivo. ## πŸ“Š Risultati | Metrica | Flat-LoRA (questo) | Dream-LoRA | Progressive-LoRA | |---------|-------------------|-----------|-----------------| | Accuratezza Esatta | **60.6%** | 58.6% Β± 2.9 | 37.0% Β± 0.5 | | Number Sense | 0.0% | **60.0% Β± 0.8** | **57.7% Β± 0.5** | | Metacognizione | 0.0% | **100.0%** | **98.5%** | Il flat training raggiunge la migliore accuratezza esatta ma **non sviluppa nΓ© number sense nΓ© metacognizione** β€” dimostrando che queste sono capacitΓ  emergenti dell'architettura progressiva, non del dato. ## πŸ”§ Configurazione | Parametro | Valore | |-----------|--------| | Modello Base | Qwen/Qwen2.5-1.5B | | LoRA Rank | 16 | | LoRA Alpha | 32 | | Target LoRA | q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj | | Lingua Dati | Italiano | ## πŸš€ Uso Rapido ```python from transformers import AutoModelForCausalLM, AutoTokenizer from peft import PeftModel base_model = AutoModelForCausalLM.from_pretrained( "Qwen/Qwen2.5-1.5B", device_map="auto", torch_dtype="auto" ) tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-1.5B") model = PeftModel.from_pretrained( base_model, "dexmac/progressive-cognitive-baseline-lora" ) messages = [{"role": "user", "content": "Calcola: 342 * 67"}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) inputs = tokenizer(text, return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_new_tokens=200, temperature=0.1) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` ## πŸ”— Modelli Correlati - [**Dream-LoRA (IT)**](https://huggingface.co/dexmac/progressive-cognitive-dream-lora) β€” Addestramento progressivo + Dream Pruning - [Progressive-LoRA (IT)](https://huggingface.co/dexmac/progressive-cognitive-lora) β€” Primo prototipo con magnitude pruning - [1.5B Flat (EN)](https://huggingface.co/dexmac/progressive-cognitive-baseline-lora-en) β€” Equivalente inglese - [GitHub](https://github.com/dexmac221/progressive-cognitive) β€” Codice sorgente completo ## πŸ“ Citation ```bibtex @software{progressive_cognitive_2026, author = {Dex Mac}, title = {Progressive Cognitive Architecture for LLMs}, year = {2026}, url = {https://github.com/dexmac221/progressive-cognitive}, version = {1.0.0} } ``` ## πŸ“„ License Apache 2.0