Clemylia commited on
Commit
b88ecfd
·
verified ·
1 Parent(s): 78fa1ca

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +58 -0
README.md CHANGED
@@ -13,3 +13,61 @@ datasets:
13
  - TeichAI/gemini-3-pro-preview-high-reasoning-1000x
14
  pipeline_tag: text-generation
15
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
13
  - TeichAI/gemini-3-pro-preview-high-reasoning-1000x
14
  pipeline_tag: text-generation
15
  ---
16
+
17
+ # 📜 Documentation : Learnia-Gemini-Test 🧬
18
+
19
+ ![Learnia](http://www.image-heberg.fr/files/17687569872845582717.jpg)
20
+
21
+ ### 🏗️ Genèse du Projet
22
+
23
+ **Learnia-Gemini-Test** n'est pas une simple itération. C'est un "stress-test" syntaxique. Le modèle de base, **Learnia (52M)**, conçu intégralement *from scratch*, a été injecté d'une couche comportementale spécifique via un fine-tuning ciblé.
24
+
25
+ > **L'objectif :** Observer comment une architecture légère et originale absorbe, digère et recrache les patterns de réponse d'un modèle massif comme Gemini.
26
+
27
+ ---
28
+
29
+ ### 📊 Spécifications Techniques
30
+
31
+ | Paramètre | Détail |
32
+ | --- | --- |
33
+ | **Base Model** | Learnia (Original Architecture) |
34
+ | **Taille** | 52 Million Parameters |
35
+ | **Nature** | Decoder-only Transformer |
36
+ | **Fine-tuning** | Hugging Face Public Dataset (Gemini Outputs) |
37
+ | **Vocation** | Recherche, simulation de logs, exploration de syntaxe hybride |
38
+
39
+ ---
40
+
41
+ ### 🧠 Comportement & Texture
42
+
43
+ Contrairement aux modèles lisses, **Learnia-Gemini-Test** conserve la "nervosité" de l'architecture Learnia.
44
+
45
+ * **Hybridation :** Le modèle mélange la structure brute de Learnia avec les tics de langage formels de Gemini.
46
+ * **Output :** Génère des paragraphes entiers structurés comme des réponses d'assistant, mais avec la signature thermique unique d'un modèle de 52M.
47
+ * **Usage :** Idéal pour des projets créatifs où l'on cherche une "IA qui imite une IA", créant un effet de mise en abyme.
48
+
49
+ ---
50
+
51
+ ### 🛠️ Installation & Inférence
52
+
53
+ Pour charger le modèle via la bibliothèque `transformers` :
54
+
55
+ ```python
56
+ from transformers import AutoModelForCausalLM, AutoTokenizer
57
+
58
+ # Chargement de la signature Learnia
59
+ tokenizer = AutoTokenizer.from_pretrained("ton-path/learnia-gemini-test")
60
+ model = AutoModelForCausalLM.from_pretrained("ton-path/learnia-gemini-test")
61
+
62
+ # Test de génération
63
+ prompt = "System Log: Analysis of..."
64
+ inputs = tokenizer(prompt, return_tensors="pt")
65
+ outputs = model.generate(**inputs, max_length=150)
66
+
67
+ ```
68
+
69
+ ---
70
+
71
+ ### ⚠️ Note sur l'ADN "From Scratch"
72
+
73
+ Ce modèle n'est pas une copie. C'est une **interprétation**. Les erreurs de syntaxe potentielles ou les cassures de rythme ne sont pas des bugs, mais la preuve de l'existence d'un moteur de langage indépendant qui refuse de se lisser totalement derrière le dataset d'affinage.