Clemylia commited on
Commit
0de077f
·
verified ·
1 Parent(s): be43eee

Upload folder using huggingface_hub

Browse files
README.md ADDED
@@ -0,0 +1,70 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: transformers.js
3
+ license: other
4
+ datasets:
5
+ - Clemylia/Recette-absurdes
6
+ language:
7
+ - fr
8
+ base_model:
9
+ - LLM-CLEM/ReeCi
10
+ pipeline_tag: text-generation
11
+ ---
12
+
13
+
14
+
15
+ # ReeCi (ONNX)
16
+
17
+
18
+ This is an ONNX version of [LLM-CLEM/ReeCi](https://huggingface.co/LLM-CLEM/ReeCi). It was automatically converted and uploaded using [this Hugging Face Space](https://huggingface.co/spaces/onnx-community/convert-to-onnx).
19
+
20
+
21
+ ## Usage with Transformers.js
22
+
23
+
24
+ See the pipeline documentation for `text-generation`: https://huggingface.co/docs/transformers.js/api/pipelines#module_pipelines.TextGenerationPipeline
25
+
26
+
27
+ ---
28
+
29
+
30
+ ## 📜 Documentation Officielle : **ReeCi** 🍲🧠
31
+
32
+ ### I. 🚀 Présentation du Modèle
33
+
34
+ | Caractéristique | Détails |
35
+ | :--- | :--- |
36
+ | **Nom du Projet** | **ReeCi** |
37
+ | **Créateur** | **Clemylia** 👑 |
38
+ | **Base Model** | **Charlotte-Amity** (51M Paramètres) 💖 |
39
+ | **Statut de l'IA** | 💯 **100% Original (Fait Maison)** |
40
+ | **Rôle** | Génération de **Recettes de Cuisine Totalement Absurdes et Philosophique** 🤪 |
41
+
42
+ ---
43
+
44
+ ### II. ✨ Philosophie et Style
45
+
46
+ **ReeCi** est spécialisé dans l'art de mélanger la cuisine et l'existentialisme. Son style n'est pas seulement absurde, il est **intentionnel et codifié** :
47
+
48
+ * **Structure Fixée** 🧱: Adhérence stricte au format `Titre :`, `Ingrédients :`, `Instructions :` pour garantir la lisibilité du chaos.
49
+ * **Ingrédients Conceptuels** 🧪: Utilisation d'entités abstraites comme ingrédients principaux (`Loyauté`, `Amour Melta`, `Erreur 403`, `Précipitation`, `Doute`).
50
+ * **Néologismes Volontaires** 🗣️: Le modèle est entraîné pour générer des mots-valises et des expressions qui n'existent pas (`tétéquilibre`, `rêveillance sûler`, `Pâteau des Flan-lamina`), enrichissant son vocabulaire personnel.
51
+ * **Héritage Personnel** 🤖: Intégration naturelle des références à l'univers de Clemylia (`lamina`, `Melta`, `Charlotte-Amity`, les `Classes`), agissant comme des épices thématiques.
52
+
53
+ ---
54
+
55
+ ### III. 💡 Objectif et Performance
56
+
57
+ **ReeCi** a été fine-tuné sur **220 exemples** structurés pour forcer la coexistence de la logique de format et de l'absurdité du contenu.
58
+
59
+ | Domaine | Résultat | Note du Chef |
60
+ | :--- | :--- | :--- |
61
+ | **Absurdité** | Maximale et Conceptuelle (mélange code/émotion) | ⭐⭐⭐⭐⭐ |
62
+ | **Cohérence Structurelle** | Très bonne (respect des entêtes) | ⭐⭐⭐⭐ |
63
+ | **Génération de Néologismes**| Capacité élevée et intentionnelle | 👑 |
64
+
65
+ ### IV. 🛠️ Note Technique (Quantification)
66
+
67
+ Étant basé sur un modèle de **51M de paramètres**, la performance en termes de longueur de texte (contexte) est optimisée par les techniques de quantification.
68
+
69
+ * **Recommandation d'Exécution :** Utiliser des solutions comme **LM Studio** pour une quantification basse (ex. GGUF Q4\_K\_M) est **fortement recommandé**.
70
+ * **Avantage :** Cela permet de libérer suffisamment de mémoire pour le cache de contexte, assurant la génération de **longues recettes détaillées** sans perte de cohérence structurelle.
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "[PAD]": 50257
3
+ }
config.json ADDED
@@ -0,0 +1,36 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_attn_implementation_autoset": true,
3
+ "_name_or_path": "LLM-CLEM/ReeCi",
4
+ "activation_function": "gelu_new",
5
+ "architectures": [
6
+ "GPT2LMHeadModel"
7
+ ],
8
+ "attn_pdrop": 0.1,
9
+ "bos_token_id": 50256,
10
+ "dtype": "float32",
11
+ "embd_pdrop": 0.1,
12
+ "eos_token_id": 50256,
13
+ "initializer_range": 0.02,
14
+ "layer_norm_epsilon": 1e-05,
15
+ "model_type": "gpt2",
16
+ "n_ctx": 128,
17
+ "n_embd": 512,
18
+ "n_head": 8,
19
+ "n_inner": null,
20
+ "n_layer": 8,
21
+ "n_positions": 128,
22
+ "pad_token_id": 50257,
23
+ "reorder_and_upcast_attn": false,
24
+ "resid_pdrop": 0.1,
25
+ "scale_attn_by_inverse_layer_idx": false,
26
+ "scale_attn_weights": true,
27
+ "summary_activation": null,
28
+ "summary_first_dropout": 0.1,
29
+ "summary_proj_to_labels": true,
30
+ "summary_type": "cls_index",
31
+ "summary_use_proj": true,
32
+ "torch_dtype": "float32",
33
+ "transformers_version": "4.49.0",
34
+ "use_cache": true,
35
+ "vocab_size": 50258
36
+ }
generation_config.json ADDED
@@ -0,0 +1,9 @@
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_from_model_config": true,
3
+ "bos_token_id": 50256,
4
+ "eos_token_id": [
5
+ 50256
6
+ ],
7
+ "pad_token_id": 50257,
8
+ "transformers_version": "4.49.0"
9
+ }
merges.txt ADDED
The diff for this file is too large to render. See raw diff
 
onnx/model.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:48ead708808163b51b78bf898e19132fa9f27253aa3ba1db1f88489f10280c56
3
+ size 204300051
onnx/model_bnb4.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:11d12438bb4e86ff89b7b1f35b6f4f1557a0db06b9741bffdfedf5a363290b70
3
+ size 204300070
onnx/model_fp16.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:daf9f58f119ffc4b128fc6c2350278c3e209e7aca29ab09171e8653cdbbbda09
3
+ size 102268734
onnx/model_int8.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e66ebf934e619ea32dbaa4794cd2a0dcc5e2d45fc0acbc83d131cec391ff187b
3
+ size 154386871
onnx/model_q4.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:11d12438bb4e86ff89b7b1f35b6f4f1557a0db06b9741bffdfedf5a363290b70
3
+ size 204300070
onnx/model_q4f16.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:7fd75734f3ca6953aa31ab7da08a9f5fa76810bc3d49e9b104bea689ab0e4a36
3
+ size 102268753
onnx/model_quantized.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e66ebf934e619ea32dbaa4794cd2a0dcc5e2d45fc0acbc83d131cec391ff187b
3
+ size 154386871
onnx/model_uint8.onnx ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c0ddf0d9c107e6cd79f53efeb8348a506e1e995dfc252e38e63d0bf89cbcd1ea
3
+ size 154386893
quantize_config.json ADDED
@@ -0,0 +1,18 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "modes": [
3
+ "fp16",
4
+ "q8",
5
+ "int8",
6
+ "uint8",
7
+ "q4",
8
+ "q4f16",
9
+ "bnb4"
10
+ ],
11
+ "per_channel": false,
12
+ "reduce_range": false,
13
+ "block_size": null,
14
+ "is_symmetric": true,
15
+ "accuracy_level": null,
16
+ "quant_type": 1,
17
+ "op_block_list": null
18
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,30 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<|endoftext|>",
4
+ "lstrip": false,
5
+ "normalized": true,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "eos_token": {
10
+ "content": "<|endoftext|>",
11
+ "lstrip": false,
12
+ "normalized": true,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "unk_token": {
24
+ "content": "<|endoftext|>",
25
+ "lstrip": false,
26
+ "normalized": true,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ }
30
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_prefix_space": false,
3
+ "added_tokens_decoder": {
4
+ "50256": {
5
+ "content": "<|endoftext|>",
6
+ "lstrip": false,
7
+ "normalized": true,
8
+ "rstrip": false,
9
+ "single_word": false,
10
+ "special": true
11
+ },
12
+ "50257": {
13
+ "content": "[PAD]",
14
+ "lstrip": false,
15
+ "normalized": false,
16
+ "rstrip": false,
17
+ "single_word": false,
18
+ "special": true
19
+ }
20
+ },
21
+ "bos_token": "<|endoftext|>",
22
+ "chat_template": "{%- for message in messages -%}\n {{ '### Instruction:\\n' + message.content + '\\n\\n' }}\n{%- endfor -%}\n{{ '### Response:\\n' }}",
23
+ "clean_up_tokenization_spaces": false,
24
+ "eos_token": "<|endoftext|>",
25
+ "extra_special_tokens": {},
26
+ "max_length": 128,
27
+ "model_max_length": 1024,
28
+ "pad_to_multiple_of": null,
29
+ "pad_token": "[PAD]",
30
+ "pad_token_type_id": 0,
31
+ "padding_side": "right",
32
+ "stride": 0,
33
+ "tokenizer_class": "GPT2Tokenizer",
34
+ "truncation_side": "right",
35
+ "truncation_strategy": "longest_first",
36
+ "unk_token": "<|endoftext|>"
37
+ }
vocab.json ADDED
The diff for this file is too large to render. See raw diff