File size: 5,004 Bytes
a2a2f24 affd687 a2a2f24 affd687 a2a2f24 affd687 a2a2f24 affd687 a2a2f24 affd687 a2a2f24 58cd69f a2a2f24 58cd69f a2a2f24 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 |
---
license: cc-by-nc-4.0
language:
- en
- it
- py
- js
- cpp
tags:
- non-transformer
- tcn
- fractal
- lora
- genome
- rth-code
- zetagrid
pipeline_tag: text-generation
---
# 💻 RTH-Code 25B — Code Specialist Soul
> **"L'intelligenza è nell'architettura, non nelle GPU."**
> Questa è la **Soul Specialista per il Codice** dell'ecosistema RTH-LM (V4 Architecture).
> Stesso Genome (7B) di base, ma con una "anima" addestrata per programmare (basata su V4 Expanded).
⚠️ **PROOF OF CONCEPT** ⚠️
Questa è una versione **BASE** creata per dimostrare l'efficienza scalare dell'architettura RTH-LM.
- **Tempo di Training:** Solo **8 ore** su singola A40.
- **Dataset:** Solo **5GB** di codice misto (Python, JS, C++, Go).
- **Obiettivo:** Dimostrare che un Genome congelato può apprendere skills verticali complesse in tempi record.
---
## ⚡ Che cos'è?
**RTH-Code 25B** non è un modello a sé stante. È una **Soul intercambiabile**.
Invece di scaricare un modello da 30GB per ogni task, mantieni il **Genome congelato (7B)** e cambi solo la Soul (**~3.8GB**).
Questa Soul è stata addestrata specificamente su:
- **Python** (Data Science, Backend, Torch)
- **JavaScript/TypeScript** (React, Node)
- **C/C++** (Systems programming)
- **Rust/Go**
```mermaid
graph TD
G["Genome 7B<br/>(Frozen Core)"]
G --> SC["🔹 Soul CODE<br/>Specialista V4 (25B)"]
G --> SG["Soul Generalista<br/>Chat & Knowledge V4"]
G --> SL["Soul Legal/Medical<br/>(Future)"]
```
Basta **swappare** i file `.pt` (o usare il GGUF unificato) e il tuo modello passa da "filosofo" a "senior engineer" in millisecondi.
---
## 📊 Specifiche Tecniche
| **Feature** | **Dettaglio** |
|---|---|
| **Architettura** | Fractal Gated Causal TCN (No Attention) - **V4 Enhanced** |
| **Parametri Totali** | **25B** (Genome + Soul V4 Expanded) |
| **Dimensione Soul** | **~3.8GB** (LoRA Rank 512, ~950M params) |
| **Dataset Training** | **5GB** (Misto: Python, JS, C++, Go) |
| **Tempo Training** | **8 ORE** (Singola Epoch) ⏱️ |
| **Contesto** | 2048+ (Teoricamente infinito grazie a TCN) |
| **Loss Finale** | **1.20** ✅ |
| **Hardware** | Addestrato su singola NVIDIA A40 (48GB) |
---
## 🛠️ Quickstart
### Opzione 1: GGUF (Consigliata per Ollama/llama.cpp)
Scarica `rth_lm_25b_code.gguf` da questo repo.
```bash
# Esegui con llama.cpp
./llama-cli -m rth_lm_25b_code.gguf -p "def fibonacci(n):" -n 200
# Oppure con Ollama (crea Modelfile)
# FROM ./rth_lm_25b_code.gguf
# SYSTEM "You are an expert coding assistant."
```
### Opzione 2: Python (Original PyTorch)
Se hai già il repo [ZetaGrid](https://github.com/rthgit/ZetaGrid):
```python
from ZETAGRID_INFERENCE import ZetaGrid25B
# Carica il Genome base
model = ZetaGrid25B("zetagrid_25b_production.npy")
# Inserisci la Soul del Codice
model.load_soul("zeta25b_code_FINAL.pt")
print(model.generate("def quicksort(arr):"))
```
---
## 🧪 Performance & Capability
RTH-Code eccelle in:
1. **Code Completion**: Autocompletamento intelligente di funzioni e classi.
2. **Refactoring**: Riscrittura di codice legacy in clean code.
3. **Docstrings**: Generazione automatica di documentazione.
4. **Unit Tests**: Scrittura di test `pytest`/`unittest`.
*Nota: Essendo un'architettura No-Attention (TCN), ha un overhead di inferenza bassissimo e scala linearmente O(N) con la lunghezza del contesto.*
---
## 📜 Licenza & Uso Commerciale ⚠️
> **ATTENZIONE: QUESTO MODELLO NON È OPEN SOURCE COMPLETO.**
> È rilasciato sotto licenza **CC BY-NC 4.0 (Creative Commons Non-Commercial)**.
### ✅ Cosa PUOI fare (Gratis):
- Ricerca accademica e personale.
- Test e valutazione locale.
- Uso hobbyistico e no-profit.
- Condividere i risultati citando l'autore.
### ❌ Cosa NON PUOI fare (Senza Licenza Commerciale):
- **Usare il modello in azienda** per qualsiasi scopo (interno o esterno).
- Integrare il modello in prodotti o servizi a pagamento.
- Offrire API o servizi cloud basati su questo modello.
- Qualsiasi attività che generi revenue diretta o indiretta.
📞 **PER USO COMMERCIALE (Enterprise / Startup):**
Devi ottenere una licenza commerciale da **RTH Italia**.
Contatto diretto: [**info@rthitalia.com**](mailto:info@rthitalia.com)
---
## 📄 Citazione
Prodotto da **RTH Italia** (Research & Technology Hub).
Autore: *Christian Quintino De Luca*.
Per citare il paper originale:
📖 **[RTH-LM: A Fractal Temporal Convolutional Language Model](https://zenodo.org/records/18622610)**
```bibtex
@techreport{deluca2026rthlm,
author = {De Luca, Christian Quintino},
title = {RTH-LM: A Fractal Temporal Convolutional Language Model},
institution = {RTH Italia (Research & Technology Hub)},
year = {2026},
url = {https://github.com/rthgit/ZetaGrid},
doi = {10.5281/zenodo.18622610},
note = {Non-commercial license. Contact RTH Italia for commercial use.}
}
```
---
*Costruito per dimostrare che l'efficienza batte la forza bruta.*
**RTH Italia**
|