Update README.md
Browse files
README.md
CHANGED
|
@@ -20,8 +20,8 @@ pipeline_tag: text-generation
|
|
| 20 |
# 💻 RTH-Code 25B — Code Specialist Soul
|
| 21 |
|
| 22 |
> **"L'intelligenza è nell'architettura, non nelle GPU."**
|
| 23 |
-
> Questa è la **Soul Specialista per il Codice** dell'ecosistema RTH-LM.
|
| 24 |
-
> Stesso Genome (7B) di base, ma con una "anima" addestrata per programmare.
|
| 25 |
|
| 26 |
⚠️ **PROOF OF CONCEPT** ⚠️
|
| 27 |
Questa è una versione **BASE** creata per dimostrare l'efficienza scalare dell'architettura RTH-LM.
|
|
@@ -34,7 +34,7 @@ Questa è una versione **BASE** creata per dimostrare l'efficienza scalare dell'
|
|
| 34 |
## ⚡ Che cos'è?
|
| 35 |
|
| 36 |
**RTH-Code 25B** non è un modello a sé stante. È una **Soul intercambiabile**.
|
| 37 |
-
Invece di scaricare un modello da 30GB per ogni task, mantieni il **Genome congelato (7B)** e cambi solo la Soul (
|
| 38 |
|
| 39 |
Questa Soul è stata addestrata specificamente su:
|
| 40 |
- **Python** (Data Science, Backend, Torch)
|
|
@@ -45,8 +45,8 @@ Questa Soul è stata addestrata specificamente su:
|
|
| 45 |
```mermaid
|
| 46 |
graph TD
|
| 47 |
G["Genome 7B<br/>(Frozen Core)"]
|
| 48 |
-
G --> SC["🔹 Soul CODE<br/>Specialista
|
| 49 |
-
G --> SG["Soul Generalista<br/>Chat & Knowledge"]
|
| 50 |
G --> SL["Soul Legal/Medical<br/>(Future)"]
|
| 51 |
```
|
| 52 |
|
|
@@ -56,11 +56,11 @@ Basta **swappare** i file `.pt` (o usare il GGUF unificato) e il tuo modello pas
|
|
| 56 |
|
| 57 |
## 📊 Specifiche Tecniche
|
| 58 |
|
| 59 |
-
| Feature | Dettaglio |
|
| 60 |
|---|---|
|
| 61 |
-
| **Architettura** | Fractal Gated Causal TCN (No Attention) |
|
| 62 |
-
| **Parametri Totali** | 25B (
|
| 63 |
-
| **
|
| 64 |
| **Dataset Training** | **5GB** (Misto: Python, JS, C++, Go) |
|
| 65 |
| **Tempo Training** | **8 ORE** (Singola Epoch) ⏱️ |
|
| 66 |
| **Contesto** | 2048+ (Teoricamente infinito grazie a TCN) |
|
|
|
|
| 20 |
# 💻 RTH-Code 25B — Code Specialist Soul
|
| 21 |
|
| 22 |
> **"L'intelligenza è nell'architettura, non nelle GPU."**
|
| 23 |
+
> Questa è la **Soul Specialista per il Codice** dell'ecosistema RTH-LM (V4 Architecture).
|
| 24 |
+
> Stesso Genome (7B) di base, ma con una "anima" addestrata per programmare (basata su V4 Expanded).
|
| 25 |
|
| 26 |
⚠️ **PROOF OF CONCEPT** ⚠️
|
| 27 |
Questa è una versione **BASE** creata per dimostrare l'efficienza scalare dell'architettura RTH-LM.
|
|
|
|
| 34 |
## ⚡ Che cos'è?
|
| 35 |
|
| 36 |
**RTH-Code 25B** non è un modello a sé stante. È una **Soul intercambiabile**.
|
| 37 |
+
Invece di scaricare un modello da 30GB per ogni task, mantieni il **Genome congelato (7B)** e cambi solo la Soul (**~3.8GB**).
|
| 38 |
|
| 39 |
Questa Soul è stata addestrata specificamente su:
|
| 40 |
- **Python** (Data Science, Backend, Torch)
|
|
|
|
| 45 |
```mermaid
|
| 46 |
graph TD
|
| 47 |
G["Genome 7B<br/>(Frozen Core)"]
|
| 48 |
+
G --> SC["🔹 Soul CODE<br/>Specialista V4 (25B)"]
|
| 49 |
+
G --> SG["Soul Generalista<br/>Chat & Knowledge V4"]
|
| 50 |
G --> SL["Soul Legal/Medical<br/>(Future)"]
|
| 51 |
```
|
| 52 |
|
|
|
|
| 56 |
|
| 57 |
## 📊 Specifiche Tecniche
|
| 58 |
|
| 59 |
+
| **Feature** | **Dettaglio** |
|
| 60 |
|---|---|
|
| 61 |
+
| **Architettura** | Fractal Gated Causal TCN (No Attention) - **V4 Enhanced** |
|
| 62 |
+
| **Parametri Totali** | **25B** (Genome + Soul V4 Expanded) |
|
| 63 |
+
| **Dimensione Soul** | **~3.8GB** (LoRA Rank 512, ~950M params) |
|
| 64 |
| **Dataset Training** | **5GB** (Misto: Python, JS, C++, Go) |
|
| 65 |
| **Tempo Training** | **8 ORE** (Singola Epoch) ⏱️ |
|
| 66 |
| **Contesto** | 2048+ (Teoricamente infinito grazie a TCN) |
|