RthItalia commited on
Commit
affd687
·
verified ·
1 Parent(s): a2a2f24

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +9 -9
README.md CHANGED
@@ -20,8 +20,8 @@ pipeline_tag: text-generation
20
  # 💻 RTH-Code 25B — Code Specialist Soul
21
 
22
  > **"L'intelligenza è nell'architettura, non nelle GPU."**
23
- > Questa è la **Soul Specialista per il Codice** dell'ecosistema RTH-LM.
24
- > Stesso Genome (7B) di base, ma con una "anima" addestrata per programmare.
25
 
26
  ⚠️ **PROOF OF CONCEPT** ⚠️
27
  Questa è una versione **BASE** creata per dimostrare l'efficienza scalare dell'architettura RTH-LM.
@@ -34,7 +34,7 @@ Questa è una versione **BASE** creata per dimostrare l'efficienza scalare dell'
34
  ## ⚡ Che cos'è?
35
 
36
  **RTH-Code 25B** non è un modello a sé stante. È una **Soul intercambiabile**.
37
- Invece di scaricare un modello da 30GB per ogni task, mantieni il **Genome congelato (7B)** e cambi solo la Soul (~950M parametri).
38
 
39
  Questa Soul è stata addestrata specificamente su:
40
  - **Python** (Data Science, Backend, Torch)
@@ -45,8 +45,8 @@ Questa Soul è stata addestrata specificamente su:
45
  ```mermaid
46
  graph TD
47
  G["Genome 7B<br/>(Frozen Core)"]
48
- G --> SC["🔹 Soul CODE<br/>Specialista Python/JS/C++"]
49
- G --> SG["Soul Generalista<br/>Chat & Knowledge"]
50
  G --> SL["Soul Legal/Medical<br/>(Future)"]
51
  ```
52
 
@@ -56,11 +56,11 @@ Basta **swappare** i file `.pt` (o usare il GGUF unificato) e il tuo modello pas
56
 
57
  ## 📊 Specifiche Tecniche
58
 
59
- | Feature | Dettaglio |
60
  |---|---|
61
- | **Architettura** | Fractal Gated Causal TCN (No Attention) |
62
- | **Parametri Totali** | 25B (7B Genome + 18B Virtuali) |
63
- | **Parametri Trainabili** | ~950M (LoRA Rank 512) |
64
  | **Dataset Training** | **5GB** (Misto: Python, JS, C++, Go) |
65
  | **Tempo Training** | **8 ORE** (Singola Epoch) ⏱️ |
66
  | **Contesto** | 2048+ (Teoricamente infinito grazie a TCN) |
 
20
  # 💻 RTH-Code 25B — Code Specialist Soul
21
 
22
  > **"L'intelligenza è nell'architettura, non nelle GPU."**
23
+ > Questa è la **Soul Specialista per il Codice** dell'ecosistema RTH-LM (V4 Architecture).
24
+ > Stesso Genome (7B) di base, ma con una "anima" addestrata per programmare (basata su V4 Expanded).
25
 
26
  ⚠️ **PROOF OF CONCEPT** ⚠️
27
  Questa è una versione **BASE** creata per dimostrare l'efficienza scalare dell'architettura RTH-LM.
 
34
  ## ⚡ Che cos'è?
35
 
36
  **RTH-Code 25B** non è un modello a sé stante. È una **Soul intercambiabile**.
37
+ Invece di scaricare un modello da 30GB per ogni task, mantieni il **Genome congelato (7B)** e cambi solo la Soul (**~3.8GB**).
38
 
39
  Questa Soul è stata addestrata specificamente su:
40
  - **Python** (Data Science, Backend, Torch)
 
45
  ```mermaid
46
  graph TD
47
  G["Genome 7B<br/>(Frozen Core)"]
48
+ G --> SC["🔹 Soul CODE<br/>Specialista V4 (25B)"]
49
+ G --> SG["Soul Generalista<br/>Chat & Knowledge V4"]
50
  G --> SL["Soul Legal/Medical<br/>(Future)"]
51
  ```
52
 
 
56
 
57
  ## 📊 Specifiche Tecniche
58
 
59
+ | **Feature** | **Dettaglio** |
60
  |---|---|
61
+ | **Architettura** | Fractal Gated Causal TCN (No Attention) - **V4 Enhanced** |
62
+ | **Parametri Totali** | **25B** (Genome + Soul V4 Expanded) |
63
+ | **Dimensione Soul** | **~3.8GB** (LoRA Rank 512, ~950M params) |
64
  | **Dataset Training** | **5GB** (Misto: Python, JS, C++, Go) |
65
  | **Tempo Training** | **8 ORE** (Singola Epoch) ⏱️ |
66
  | **Contesto** | 2048+ (Teoricamente infinito grazie a TCN) |