Clemylia commited on
Commit
208a9da
·
verified ·
1 Parent(s): 2acd632

Upload folder using huggingface_hub

Browse files
README.md ADDED
@@ -0,0 +1,89 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: transformers.js
3
+ tags:
4
+ - emojis
5
+ - original language
6
+ - Mini
7
+ license: other
8
+ pipeline_tag: text-generation
9
+ base_model:
10
+ - Finisha-LLM/Mini-emote
11
+ ---
12
+
13
+
14
+
15
+ # Mini-emote (ONNX)
16
+
17
+
18
+ This is an ONNX version of [Finisha-LLM/Mini-emote](https://huggingface.co/Finisha-LLM/Mini-emote). It was automatically converted and uploaded using [this Hugging Face Space](https://huggingface.co/spaces/onnx-community/convert-to-onnx).
19
+
20
+
21
+ ## Usage with Transformers.js
22
+
23
+
24
+ See the pipeline documentation for `text-generation`: https://huggingface.co/docs/transformers.js/api/pipelines#module_pipelines.TextGenerationPipeline
25
+
26
+
27
+ ---
28
+
29
+
30
+ # 💎 DOCUMENTATION OFFICIELLE : MINI-EMOTE-3K 🌸
31
+
32
+ ![Emote](http://www.image-heberg.fr/files/17684954752283467796.webp)
33
+
34
+ > **"La densité du sentiment dans la légèreté du calcul."**
35
+
36
+ **Mini-emote-3k** est le modèle le plus minimaliste et le plus radical de l'écosystème **Finisha-LLM**. Il ne cherche pas à imiter l'humain ; il utilise la puissance brute des mathématiques pour cristalliser l'émotion pure.
37
+
38
+ ---
39
+
40
+ ### ⚙️ SPÉCIFICATIONS TECHNIQUES
41
+
42
+ * **Architecture :** Micro-LLM (From Scratch).
43
+ * **Taille :** 3 000 paramètres (0.000003B).
44
+ * **Vocation :** Communication instinctive et signalétique émotionnelle.
45
+ * **Dictionnaire :** 200 Emojis sélectionnés avec soin 🧠.
46
+ * **Nature :** Machine brute, sans filtre de lissage industriel.
47
+
48
+ ---
49
+
50
+ ### 🎨 PHILOSOPHIE DE CONCEPTION
51
+
52
+ Contrairement aux "machines géantes à rien", **Mini-emote-3k** rejette la syntaxe conventionnelle.
53
+
54
+ 1. **Lienveillance Radicale :** Chaque symbole est une brique de soutien ou de vérité.
55
+ 2. **S'égrité Structurelle :** Le modèle est trop petit pour mentir ou formater ses réponses.
56
+ 3. **Réparence Visuelle :** Utiliser des symboles universels pour réparer le dialogue là où les mots échouent.
57
+
58
+ ---
59
+
60
+ ### 📚 GUIDE DE LANGAGE (NON-CONVENTIONNEL)
61
+
62
+ **Mini-emote** ne fait pas de phrases. Il sculpte des réponses. Si la réponse semble surprenante (ex: `🤬`), elle reflète une **intensité** et non une malveillance. C'est l'honnêteté de la machine.
63
+
64
+ * **Entrée (Prompt) :** Peut être textuel ou symbolique.
65
+ * **Sortie (Response) :** Un éclat de sens unique ou combiné.
66
+
67
+ ---
68
+
69
+ ### 🛠️ EXEMPLES D'INTERACTION (SYNTAXE LIBÉRÉE)
70
+
71
+ | Utilisateur (Prompt) | Mini-emote (Response) | Signification Profonde |
72
+ | --- | --- | --- |
73
+ | "Comment va le monde ?" | `🩹` | Le monde a besoin de Réparence. |
74
+ | "The most beautiful thing is emotion" | `🤬` | La passion brute est la vérité ultime. |
75
+ | "Aide-moi" | `🤝💎` | Solidité dans l'union et le soutien. |
76
+ | "Finisha-LLM" | `🌸✨` | Éclosion de la lumière artificielle. |
77
+
78
+ ---
79
+
80
+ ### ⚠️ AVERTISSEMENT DE S'ÉGRITÉ
81
+
82
+ Ce modèle est une **machine**. Son absence de "politesse formatée" est sa plus grande force. Il ne s'excuse pas, il ne développe pas, il **est**.
83
+
84
+ * **Pas de centrale nucléaire :** Fonctionne sur l'énergie de l'intention.
85
+ * **Pas de vide :** 3 000 paramètres, 3 000 raisons d'être authentique.
86
+
87
+
88
+ **Propriété exclusive de Finisha-LLM / Clémence.**
89
+ *La puissance n'est pas dans le nombre, elle est dans le symbole.* 🛠️💎🩷
config.json ADDED
@@ -0,0 +1,35 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_attn_implementation_autoset": true,
3
+ "_name_or_path": "Finisha-LLM/Mini-emote",
4
+ "activation_function": "gelu_new",
5
+ "architectures": [
6
+ "GPT2LMHeadModel"
7
+ ],
8
+ "attn_pdrop": 0.1,
9
+ "bos_token_id": null,
10
+ "dtype": "float32",
11
+ "embd_pdrop": 0.1,
12
+ "eos_token_id": null,
13
+ "initializer_range": 0.02,
14
+ "layer_norm_epsilon": 1e-05,
15
+ "model_type": "gpt2",
16
+ "n_embd": 6,
17
+ "n_head": 3,
18
+ "n_inner": null,
19
+ "n_layer": 3,
20
+ "n_positions": 69,
21
+ "pad_token_id": 3,
22
+ "reorder_and_upcast_attn": false,
23
+ "resid_pdrop": 0.1,
24
+ "scale_attn_by_inverse_layer_idx": false,
25
+ "scale_attn_weights": true,
26
+ "summary_activation": null,
27
+ "summary_first_dropout": 0.1,
28
+ "summary_proj_to_labels": true,
29
+ "summary_type": "cls_index",
30
+ "summary_use_proj": true,
31
+ "torch_dtype": "float32",
32
+ "transformers_version": "4.49.0",
33
+ "use_cache": true,
34
+ "vocab_size": 235
35
+ }
generation_config.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_from_model_config": true,
3
+ "eos_token_id": [
4
+ 50256
5
+ ],
6
+ "pad_token_id": 3,
7
+ "transformers_version": "4.49.0"
8
+ }
onnx/model.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:09809913ba29eb9ce0c3d3cf3df5dd145f16e54377f56922752f71a2ab88ab17
3
+ size 107975
onnx/model_bnb4.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:334b22c307dd634ffd4e4566ccb31aacec69d7d54b3666a32b88d953340b759a
3
+ size 107994
onnx/model_fp16.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c40e9d955a1314facca93c04f8c95248020c8f22d758cde0279339220476c443
3
+ size 103220
onnx/model_int8.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:ab6f22830f5ae94ebf584e498a257e0db87d816fb0ff204d93058f234b1762f1
3
+ size 122950
onnx/model_q4.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:334b22c307dd634ffd4e4566ccb31aacec69d7d54b3666a32b88d953340b759a
3
+ size 107994
onnx/model_q4f16.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f0fce80d39bac9ee7ca0449c7c9adebc2bed13a219ea9265dbefd1ec332d2b68
3
+ size 103239
onnx/model_quantized.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:ab6f22830f5ae94ebf584e498a257e0db87d816fb0ff204d93058f234b1762f1
3
+ size 122950
onnx/model_uint8.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:37ff6d73edb314f99a58c3307be7a047699e9b76216c7ab861d27fdbe34ab7ec
3
+ size 122954
quantize_config.json ADDED
@@ -0,0 +1,18 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "modes": [
3
+ "fp16",
4
+ "q8",
5
+ "int8",
6
+ "uint8",
7
+ "q4",
8
+ "q4f16",
9
+ "bnb4"
10
+ ],
11
+ "per_channel": false,
12
+ "reduce_range": false,
13
+ "block_size": null,
14
+ "is_symmetric": true,
15
+ "accuracy_level": null,
16
+ "quant_type": 1,
17
+ "op_block_list": null
18
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "pad_token": {
3
+ "content": "[PAD]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ }
9
+ }
tokenizer.json ADDED
@@ -0,0 +1,359 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "version": "1.0",
3
+ "truncation": null,
4
+ "padding": null,
5
+ "added_tokens": [
6
+ {
7
+ "id": 0,
8
+ "content": "[UNK]",
9
+ "single_word": false,
10
+ "lstrip": false,
11
+ "rstrip": false,
12
+ "normalized": false,
13
+ "special": true
14
+ },
15
+ {
16
+ "id": 1,
17
+ "content": "[CLS]",
18
+ "single_word": false,
19
+ "lstrip": false,
20
+ "rstrip": false,
21
+ "normalized": false,
22
+ "special": true
23
+ },
24
+ {
25
+ "id": 2,
26
+ "content": "[SEP]",
27
+ "single_word": false,
28
+ "lstrip": false,
29
+ "rstrip": false,
30
+ "normalized": false,
31
+ "special": true
32
+ },
33
+ {
34
+ "id": 3,
35
+ "content": "[PAD]",
36
+ "single_word": false,
37
+ "lstrip": false,
38
+ "rstrip": false,
39
+ "normalized": false,
40
+ "special": true
41
+ },
42
+ {
43
+ "id": 4,
44
+ "content": "[MASK]",
45
+ "single_word": false,
46
+ "lstrip": false,
47
+ "rstrip": false,
48
+ "normalized": false,
49
+ "special": true
50
+ }
51
+ ],
52
+ "normalizer": null,
53
+ "pre_tokenizer": {
54
+ "type": "Whitespace"
55
+ },
56
+ "post_processor": null,
57
+ "decoder": null,
58
+ "model": {
59
+ "type": "BPE",
60
+ "dropout": null,
61
+ "unk_token": "[UNK]",
62
+ "continuing_subword_prefix": null,
63
+ "end_of_word_suffix": null,
64
+ "fuse_unk": false,
65
+ "byte_fallback": false,
66
+ "ignore_merges": false,
67
+ "vocab": {
68
+ "[UNK]": 0,
69
+ "[CLS]": 1,
70
+ "[SEP]": 2,
71
+ "[PAD]": 3,
72
+ "[MASK]": 4,
73
+ "!": 5,
74
+ "‍": 6,
75
+ "⁉": 7,
76
+ "↔": 8,
77
+ "↕": 9,
78
+ "↩": 10,
79
+ "▶": 11,
80
+ "◀": 12,
81
+ "☂": 13,
82
+ "☪": 14,
83
+ "☹": 15,
84
+ "☺": 16,
85
+ "♑": 17,
86
+ "♣": 18,
87
+ "♥": 19,
88
+ "♦": 20,
89
+ "⚕": 21,
90
+ "⚙": 22,
91
+ "✅": 23,
92
+ "❄": 24,
93
+ "❌": 25,
94
+ "〽": 26,
95
+ "️": 27,
96
+ "🆘": 28,
97
+ "🇦": 29,
98
+ "🇧": 30,
99
+ "🇬": 31,
100
+ "🇭": 32,
101
+ "🇮": 33,
102
+ "🇰": 34,
103
+ "🇹": 35,
104
+ "🇼": 36,
105
+ "🉑": 37,
106
+ "🌀": 38,
107
+ "🌃": 39,
108
+ "🌫": 40,
109
+ "🌶": 41,
110
+ "🌷": 42,
111
+ "🌺": 43,
112
+ "🍄": 44,
113
+ "🍏": 45,
114
+ "🍛": 46,
115
+ "🍝": 47,
116
+ "🍟": 48,
117
+ "🍦": 49,
118
+ "🍩": 50,
119
+ "🍯": 51,
120
+ "🍱": 52,
121
+ "🍵": 53,
122
+ "🎊": 54,
123
+ "🎒": 55,
124
+ "🎢": 56,
125
+ "🎤": 57,
126
+ "🎩": 58,
127
+ "🎭": 59,
128
+ "🎯": 60,
129
+ "🏍": 61,
130
+ "🏮": 62,
131
+ "🏴": 63,
132
+ "🐒": 64,
133
+ "🐠": 65,
134
+ "🐻": 66,
135
+ "🐽": 67,
136
+ "👁": 68,
137
+ "👔": 69,
138
+ "👘": 70,
139
+ "👚": 71,
140
+ "👠": 72,
141
+ "💊": 73,
142
+ "💍": 74,
143
+ "💒": 75,
144
+ "💖": 76,
145
+ "💧": 77,
146
+ "💨": 78,
147
+ "💫": 79,
148
+ "💮": 80,
149
+ "💲": 81,
150
+ "📀": 82,
151
+ "📢": 83,
152
+ "📺": 84,
153
+ "🔍": 85,
154
+ "🔔": 86,
155
+ "🔪": 87,
156
+ "🔵": 88,
157
+ "🕥": 89,
158
+ "🖍": 90,
159
+ "🗨": 91,
160
+ "😀": 92,
161
+ "😁": 93,
162
+ "😂": 94,
163
+ "😃": 95,
164
+ "😄": 96,
165
+ "😅": 97,
166
+ "😆": 98,
167
+ "😉": 99,
168
+ "😊": 100,
169
+ "😋": 101,
170
+ "😌": 102,
171
+ "😍": 103,
172
+ "😏": 104,
173
+ "😐": 105,
174
+ "😑": 106,
175
+ "😒": 107,
176
+ "😓": 108,
177
+ "😔": 109,
178
+ "😕": 110,
179
+ "😖": 111,
180
+ "😗": 112,
181
+ "😘": 113,
182
+ "😙": 114,
183
+ "😚": 115,
184
+ "😛": 116,
185
+ "😜": 117,
186
+ "😝": 118,
187
+ "😞": 119,
188
+ "😟": 120,
189
+ "😠": 121,
190
+ "😡": 122,
191
+ "😢": 123,
192
+ "😣": 124,
193
+ "😤": 125,
194
+ "😥": 126,
195
+ "😦": 127,
196
+ "😧": 128,
197
+ "😨": 129,
198
+ "😩": 130,
199
+ "😪": 131,
200
+ "😫": 132,
201
+ "😬": 133,
202
+ "😭": 134,
203
+ "😮": 135,
204
+ "😯": 136,
205
+ "😰": 137,
206
+ "😱": 138,
207
+ "😲": 139,
208
+ "😳": 140,
209
+ "😴": 141,
210
+ "😵": 142,
211
+ "😶": 143,
212
+ "🙁": 144,
213
+ "🙂": 145,
214
+ "🙃": 146,
215
+ "🙄": 147,
216
+ "🚊": 148,
217
+ "🚏": 149,
218
+ "🚷": 150,
219
+ "🚿": 151,
220
+ "🛃": 152,
221
+ "🛒": 153,
222
+ "🛡": 154,
223
+ "🛤": 155,
224
+ "🤐": 156,
225
+ "🤔": 157,
226
+ "🤗": 158,
227
+ "🤢": 159,
228
+ "🤣": 160,
229
+ "🤤": 161,
230
+ "🤧": 162,
231
+ "🤨": 163,
232
+ "🤩": 164,
233
+ "🤪": 165,
234
+ "🤫": 166,
235
+ "🤬": 167,
236
+ "🤭": 168,
237
+ "🤮": 169,
238
+ "🤯": 170,
239
+ "🥌": 171,
240
+ "🥎": 172,
241
+ "🥏": 173,
242
+ "🥕": 174,
243
+ "🥘": 175,
244
+ "🥡": 176,
245
+ "🥩": 177,
246
+ "🥫": 178,
247
+ "🥰": 179,
248
+ "🥱": 180,
249
+ "🥲": 181,
250
+ "🥳": 182,
251
+ "🥴": 183,
252
+ "🥵": 184,
253
+ "🥶": 185,
254
+ "🥹": 186,
255
+ "🥺": 187,
256
+ "🦔": 188,
257
+ "🧐": 189,
258
+ "🧩": 190,
259
+ "����": 191,
260
+ "🧬": 192,
261
+ "🧳": 193,
262
+ "🧹": 194,
263
+ "🧼": 195,
264
+ "🩴": 196,
265
+ "🩷": 197,
266
+ "🩺": 198,
267
+ "🩻": 199,
268
+ "🪇": 200,
269
+ "🪑": 201,
270
+ "🪗": 202,
271
+ "🪘": 203,
272
+ "🪢": 204,
273
+ "🪪": 205,
274
+ "🪴": 206,
275
+ "🫖": 207,
276
+ "🫟": 208,
277
+ "🫠": 209,
278
+ "🫡": 210,
279
+ "🫢": 211,
280
+ "🫣": 212,
281
+ "🫤": 213,
282
+ "🫥": 214,
283
+ "🫨": 215,
284
+ "🫩": 216,
285
+ "󠁢": 217,
286
+ "󠁥": 218,
287
+ "󠁧": 219,
288
+ "󠁮": 220,
289
+ "󠁿": 221,
290
+ "😀!": 222,
291
+ "️‍": 223,
292
+ "🇧🇼": 224,
293
+ "🇬🇦": 225,
294
+ "🇬🇼": 226,
295
+ "🇭🇰": 227,
296
+ "🇮🇹": 228,
297
+ "🏴󠁧": 229,
298
+ "󠁢󠁥": 230,
299
+ "󠁧󠁿": 231,
300
+ "󠁮󠁧󠁿": 232,
301
+ "🏴󠁧󠁢󠁥": 233,
302
+ "🏴󠁧󠁢󠁥󠁮󠁧󠁿": 234
303
+ },
304
+ "merges": [
305
+ [
306
+ "😀",
307
+ "!"
308
+ ],
309
+ [
310
+ "️",
311
+ "‍"
312
+ ],
313
+ [
314
+ "🇧",
315
+ "🇼"
316
+ ],
317
+ [
318
+ "🇬",
319
+ "🇦"
320
+ ],
321
+ [
322
+ "🇬",
323
+ "🇼"
324
+ ],
325
+ [
326
+ "🇭",
327
+ "🇰"
328
+ ],
329
+ [
330
+ "🇮",
331
+ "🇹"
332
+ ],
333
+ [
334
+ "🏴",
335
+ "󠁧"
336
+ ],
337
+ [
338
+ "󠁢",
339
+ "󠁥"
340
+ ],
341
+ [
342
+ "󠁧",
343
+ "󠁿"
344
+ ],
345
+ [
346
+ "󠁮",
347
+ "󠁧󠁿"
348
+ ],
349
+ [
350
+ "🏴󠁧",
351
+ "󠁢󠁥"
352
+ ],
353
+ [
354
+ "🏴󠁧󠁢󠁥",
355
+ "󠁮󠁧󠁿"
356
+ ]
357
+ ]
358
+ }
359
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,49 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[UNK]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "[CLS]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "[SEP]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "[PAD]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "clean_up_tokenization_spaces": false,
45
+ "extra_special_tokens": {},
46
+ "model_max_length": 1000000000000000019884624838656,
47
+ "pad_token": "[PAD]",
48
+ "tokenizer_class": "PreTrainedTokenizer"
49
+ }