|
|
--- |
|
|
license: cc-by-nc-4.0 |
|
|
language: |
|
|
- en |
|
|
- it |
|
|
- py |
|
|
- js |
|
|
- cpp |
|
|
tags: |
|
|
- non-transformer |
|
|
- tcn |
|
|
- fractal |
|
|
- lora |
|
|
- genome |
|
|
- rth-code |
|
|
- zetagrid |
|
|
pipeline_tag: text-generation |
|
|
--- |
|
|
|
|
|
# 💻 RTH-Code 25B — Code Specialist Soul |
|
|
|
|
|
> **"L'intelligenza è nell'architettura, non nelle GPU."** |
|
|
> Questa è la **Soul Specialista per il Codice** dell'ecosistema RTH-LM (V4 Architecture). |
|
|
> Stesso Genome (7B) di base, ma con una "anima" addestrata per programmare (basata su V4 Expanded). |
|
|
|
|
|
⚠️ **PROOF OF CONCEPT** ⚠️ |
|
|
Questa è una versione **BASE** creata per dimostrare l'efficienza scalare dell'architettura RTH-LM. |
|
|
- **Tempo di Training:** Solo **8 ore** su singola A40. |
|
|
- **Dataset:** Solo **5GB** di codice misto (Python, JS, C++, Go). |
|
|
- **Obiettivo:** Dimostrare che un Genome congelato può apprendere skills verticali complesse in tempi record. |
|
|
|
|
|
--- |
|
|
|
|
|
## ⚡ Che cos'è? |
|
|
|
|
|
**RTH-Code 25B** non è un modello a sé stante. È una **Soul intercambiabile**. |
|
|
Invece di scaricare un modello da 30GB per ogni task, mantieni il **Genome congelato (7B)** e cambi solo la Soul (**~3.8GB**). |
|
|
|
|
|
Questa Soul è stata addestrata specificamente su: |
|
|
- **Python** (Data Science, Backend, Torch) |
|
|
- **JavaScript/TypeScript** (React, Node) |
|
|
- **C/C++** (Systems programming) |
|
|
- **Rust/Go** |
|
|
|
|
|
```mermaid |
|
|
graph TD |
|
|
G["Genome 7B<br/>(Frozen Core)"] |
|
|
G --> SC["🔹 Soul CODE<br/>Specialista V4 (25B)"] |
|
|
G --> SG["Soul Generalista<br/>Chat & Knowledge V4"] |
|
|
G --> SL["Soul Legal/Medical<br/>(Future)"] |
|
|
``` |
|
|
|
|
|
Basta **swappare** i file `.pt` (o usare il GGUF unificato) e il tuo modello passa da "filosofo" a "senior engineer" in millisecondi. |
|
|
|
|
|
--- |
|
|
|
|
|
## 📊 Specifiche Tecniche |
|
|
|
|
|
| **Feature** | **Dettaglio** | |
|
|
|---|---| |
|
|
| **Architettura** | Fractal Gated Causal TCN (No Attention) - **V4 Enhanced** | |
|
|
| **Parametri Totali** | **25B** (Genome + Soul V4 Expanded) | |
|
|
| **Dimensione Soul** | **~3.8GB** (LoRA Rank 512, ~950M params) | |
|
|
| **Dataset Training** | **5GB** (Misto: Python, JS, C++, Go) | |
|
|
| **Tempo Training** | **8 ORE** (Singola Epoch) ⏱️ | |
|
|
| **Contesto** | 2048+ (Teoricamente infinito grazie a TCN) | |
|
|
| **Loss Finale** | **1.20** ✅ | |
|
|
| **Hardware** | Addestrato su singola NVIDIA A40 (48GB) | |
|
|
|
|
|
--- |
|
|
|
|
|
## 🛠️ Quickstart |
|
|
|
|
|
### Opzione 1: GGUF (Consigliata per Ollama/llama.cpp) |
|
|
Scarica `rth_lm_25b_code.gguf` da questo repo. |
|
|
|
|
|
```bash |
|
|
# Esegui con llama.cpp |
|
|
./llama-cli -m rth_lm_25b_code.gguf -p "def fibonacci(n):" -n 200 |
|
|
|
|
|
# Oppure con Ollama (crea Modelfile) |
|
|
# FROM ./rth_lm_25b_code.gguf |
|
|
# SYSTEM "You are an expert coding assistant." |
|
|
``` |
|
|
|
|
|
### Opzione 2: Python (Original PyTorch) |
|
|
Se hai già il repo [ZetaGrid](https://github.com/rthgit/ZetaGrid): |
|
|
|
|
|
```python |
|
|
from ZETAGRID_INFERENCE import ZetaGrid25B |
|
|
|
|
|
# Carica il Genome base |
|
|
model = ZetaGrid25B("zetagrid_25b_production.npy") |
|
|
|
|
|
# Inserisci la Soul del Codice |
|
|
model.load_soul("zeta25b_code_FINAL.pt") |
|
|
|
|
|
print(model.generate("def quicksort(arr):")) |
|
|
``` |
|
|
|
|
|
--- |
|
|
|
|
|
## 🧪 Performance & Capability |
|
|
|
|
|
RTH-Code eccelle in: |
|
|
1. **Code Completion**: Autocompletamento intelligente di funzioni e classi. |
|
|
2. **Refactoring**: Riscrittura di codice legacy in clean code. |
|
|
3. **Docstrings**: Generazione automatica di documentazione. |
|
|
4. **Unit Tests**: Scrittura di test `pytest`/`unittest`. |
|
|
|
|
|
*Nota: Essendo un'architettura No-Attention (TCN), ha un overhead di inferenza bassissimo e scala linearmente O(N) con la lunghezza del contesto.* |
|
|
|
|
|
--- |
|
|
|
|
|
## 📜 Licenza & Uso Commerciale ⚠️ |
|
|
|
|
|
> **ATTENZIONE: QUESTO MODELLO NON È OPEN SOURCE COMPLETO.** |
|
|
> È rilasciato sotto licenza **CC BY-NC 4.0 (Creative Commons Non-Commercial)**. |
|
|
|
|
|
### ✅ Cosa PUOI fare (Gratis): |
|
|
- Ricerca accademica e personale. |
|
|
- Test e valutazione locale. |
|
|
- Uso hobbyistico e no-profit. |
|
|
- Condividere i risultati citando l'autore. |
|
|
|
|
|
### ❌ Cosa NON PUOI fare (Senza Licenza Commerciale): |
|
|
- **Usare il modello in azienda** per qualsiasi scopo (interno o esterno). |
|
|
- Integrare il modello in prodotti o servizi a pagamento. |
|
|
- Offrire API o servizi cloud basati su questo modello. |
|
|
- Qualsiasi attività che generi revenue diretta o indiretta. |
|
|
|
|
|
📞 **PER USO COMMERCIALE (Enterprise / Startup):** |
|
|
Devi ottenere una licenza commerciale da **RTH Italia**. |
|
|
Contatto diretto: [**info@rthitalia.com**](mailto:info@rthitalia.com) |
|
|
|
|
|
--- |
|
|
|
|
|
## 📄 Citazione |
|
|
|
|
|
Prodotto da **RTH Italia** (Research & Technology Hub). |
|
|
Autore: *Christian Quintino De Luca*. |
|
|
|
|
|
Per citare il paper originale: |
|
|
📖 **[RTH-LM: A Fractal Temporal Convolutional Language Model](https://zenodo.org/records/18622610)** |
|
|
|
|
|
```bibtex |
|
|
@techreport{deluca2026rthlm, |
|
|
author = {De Luca, Christian Quintino}, |
|
|
title = {RTH-LM: A Fractal Temporal Convolutional Language Model}, |
|
|
institution = {RTH Italia (Research & Technology Hub)}, |
|
|
year = {2026}, |
|
|
url = {https://github.com/rthgit/ZetaGrid}, |
|
|
doi = {10.5281/zenodo.18622610}, |
|
|
note = {Non-commercial license. Contact RTH Italia for commercial use.} |
|
|
} |
|
|
``` |
|
|
|
|
|
--- |
|
|
|
|
|
*Costruito per dimostrare che l'efficienza batte la forza bruta.* |
|
|
**RTH Italia** |
|
|
|