File size: 5,004 Bytes
a2a2f24
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
affd687
 
a2a2f24
 
 
 
 
 
 
 
 
 
 
 
affd687
a2a2f24
 
 
 
 
 
 
 
 
 
affd687
 
a2a2f24
 
 
 
 
 
 
 
 
affd687
a2a2f24
affd687
 
 
a2a2f24
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
58cd69f
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
a2a2f24
 
 
 
 
 
 
58cd69f
 
 
 
 
 
 
 
 
 
 
 
a2a2f24
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
---
license: cc-by-nc-4.0
language:
- en
- it
- py
- js
- cpp
tags:
- non-transformer
- tcn
- fractal
- lora
- genome
- rth-code
- zetagrid
pipeline_tag: text-generation
---

# 💻 RTH-Code 25B — Code Specialist Soul

> **"L'intelligenza è nell'architettura, non nelle GPU."**  
> Questa è la **Soul Specialista per il Codice** dell'ecosistema RTH-LM (V4 Architecture).
> Stesso Genome (7B) di base, ma con una "anima" addestrata per programmare (basata su V4 Expanded).

⚠️ **PROOF OF CONCEPT** ⚠️
Questa è una versione **BASE** creata per dimostrare l'efficienza scalare dell'architettura RTH-LM.
- **Tempo di Training:** Solo **8 ore** su singola A40.
- **Dataset:** Solo **5GB** di codice misto (Python, JS, C++, Go).
- **Obiettivo:** Dimostrare che un Genome congelato può apprendere skills verticali complesse in tempi record.

---

## ⚡ Che cos'è?

**RTH-Code 25B** non è un modello a sé stante. È una **Soul intercambiabile**.
Invece di scaricare un modello da 30GB per ogni task, mantieni il **Genome congelato (7B)** e cambi solo la Soul (**~3.8GB**).

Questa Soul è stata addestrata specificamente su:
- **Python** (Data Science, Backend, Torch)
- **JavaScript/TypeScript** (React, Node)
- **C/C++** (Systems programming)
- **Rust/Go**

```mermaid
graph TD
    G["Genome 7B<br/>(Frozen Core)"]
    G --> SC["🔹 Soul CODE<br/>Specialista V4 (25B)"]
    G --> SG["Soul Generalista<br/>Chat & Knowledge V4"]
    G --> SL["Soul Legal/Medical<br/>(Future)"]
```

Basta **swappare** i file `.pt` (o usare il GGUF unificato) e il tuo modello passa da "filosofo" a "senior engineer" in millisecondi.

---

## 📊 Specifiche Tecniche

| **Feature** | **Dettaglio** |
|---|---|
| **Architettura** | Fractal Gated Causal TCN (No Attention) - **V4 Enhanced** |
| **Parametri Totali** | **25B** (Genome + Soul V4 Expanded) |
| **Dimensione Soul** | **~3.8GB** (LoRA Rank 512, ~950M params) |
| **Dataset Training** | **5GB** (Misto: Python, JS, C++, Go) |
| **Tempo Training** | **8 ORE** (Singola Epoch) ⏱️ |
| **Contesto** | 2048+ (Teoricamente infinito grazie a TCN) |
| **Loss Finale** | **1.20** ✅ |
| **Hardware** | Addestrato su singola NVIDIA A40 (48GB) |

---

## 🛠️ Quickstart

### Opzione 1: GGUF (Consigliata per Ollama/llama.cpp)
Scarica `rth_lm_25b_code.gguf` da questo repo.

```bash
# Esegui con llama.cpp
./llama-cli -m rth_lm_25b_code.gguf -p "def fibonacci(n):" -n 200

# Oppure con Ollama (crea Modelfile)
# FROM ./rth_lm_25b_code.gguf
# SYSTEM "You are an expert coding assistant."
```

### Opzione 2: Python (Original PyTorch)
Se hai già il repo [ZetaGrid](https://github.com/rthgit/ZetaGrid):

```python
from ZETAGRID_INFERENCE import ZetaGrid25B

# Carica il Genome base
model = ZetaGrid25B("zetagrid_25b_production.npy")

# Inserisci la Soul del Codice
model.load_soul("zeta25b_code_FINAL.pt")

print(model.generate("def quicksort(arr):"))
```

---

## 🧪 Performance & Capability

RTH-Code eccelle in:
1. **Code Completion**: Autocompletamento intelligente di funzioni e classi.
2. **Refactoring**: Riscrittura di codice legacy in clean code.
3. **Docstrings**: Generazione automatica di documentazione.
4. **Unit Tests**: Scrittura di test `pytest`/`unittest`.

*Nota: Essendo un'architettura No-Attention (TCN), ha un overhead di inferenza bassissimo e scala linearmente O(N) con la lunghezza del contesto.*

---

## 📜 Licenza & Uso Commerciale ⚠️

> **ATTENZIONE: QUESTO MODELLO NON È OPEN SOURCE COMPLETO.**  
> È rilasciato sotto licenza **CC BY-NC 4.0 (Creative Commons Non-Commercial)**.

### ✅ Cosa PUOI fare (Gratis):
- Ricerca accademica e personale.
- Test e valutazione locale.
- Uso hobbyistico e no-profit.
- Condividere i risultati citando l'autore.

### ❌ Cosa NON PUOI fare (Senza Licenza Commerciale):
- **Usare il modello in azienda** per qualsiasi scopo (interno o esterno).
- Integrare il modello in prodotti o servizi a pagamento.
- Offrire API o servizi cloud basati su questo modello.
- Qualsiasi attività che generi revenue diretta o indiretta.

📞 **PER USO COMMERCIALE (Enterprise / Startup):**
Devi ottenere una licenza commerciale da **RTH Italia**.
Contatto diretto: [**info@rthitalia.com**](mailto:info@rthitalia.com)

---

## 📄 Citazione

Prodotto da **RTH Italia** (Research & Technology Hub).  
Autore: *Christian Quintino De Luca*.

Per citare il paper originale:
📖 **[RTH-LM: A Fractal Temporal Convolutional Language Model](https://zenodo.org/records/18622610)**  

```bibtex
@techreport{deluca2026rthlm,
  author      = {De Luca, Christian Quintino},
  title       = {RTH-LM: A Fractal Temporal Convolutional Language Model},
  institution = {RTH Italia (Research & Technology Hub)},
  year        = {2026},
  url         = {https://github.com/rthgit/ZetaGrid},
  doi         = {10.5281/zenodo.18622610},
  note        = {Non-commercial license. Contact RTH Italia for commercial use.}
}
```

---

*Costruito per dimostrare che l'efficienza batte la forza bruta.*  
**RTH Italia**