File size: 4,289 Bytes
27d3a85
 
4955db4
345ea40
 
 
 
 
 
 
27d3a85
b6e344d
 
 
 
 
 
 
 
 
 
aef4c6a
b6e344d
 
d0eb070
b6e344d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8898bf7
 
 
 
 
 
 
 
 
 
f39dab5
8898bf7
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
c2afd0c
 
40cd9f2
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
---
library_name: transformers
license: other
datasets:
- Clemylia/lamina-chatbot-dataset
language:
- fr
base_model:
- Clemylia/Lamina-basic
new_version: Clemylia/Lamina-extend
---
# 📄 Documentation du modèle Lamina-yl1

![Lamina](http://www.image-heberg.fr/files/17584768423249299052.webp)

Bienvenue dans le monde de Lamina-yl1, notre premier modèle de langage open-source ! Ce modèle est un projet en cours de développement, entraîné from scratch par l'équipe de Clemylia.

## 🧠 Cœur du modèle
 * Type de modèle : GPT-2 (avec des modifications pour l'apprentissage du français)
 * Architecture : Transformer 🤖
 * Taille : 3.8M paramètres
 * Version : yl1 (première itération, d'où le nom !)
 * Source d'inspiration : Le cerveau d'un développeur un peu trop caféiné. ☕
🚀 Comment utiliser Lamina-yl1 ?
Lamina-yl1 est conçu pour de la génération de texte. Vous pouvez l'utiliser pour :
 * ✍️ Écrire des phrases courtes
 * 💡 Générer des idées de texte
 * 🧐 Explorer ses capacités (et ses limites !)
 * 🤣 S'amuser avec ses réponses inattendues

## 🚧 Limitations actuelles
Lamina-yl1 est à un stade très précoce de son développement. Voici ce que vous pouvez vous attendre (et ce qui est normal) :
 * Cohérence : Le modèle peut avoir des difficultés à maintenir un sens logique sur de longues phrases.
 * Grammaire et syntaxe : Des erreurs de conjugaison ou de construction de phrases sont fréquentes. C'est normal, il apprend encore !
 * Hallucinations : Le modèle peut inventer des faits ou des informations qui n'ont aucun sens.
 * Bruit : Il est possible que la génération contienne des caractères ou des mots parasites.
🚨 Attention : Ce modèle n'est pas conçu pour des applications de production ni pour générer du contenu fiable. Il est idéal pour l'expérimentation et la recherche.
🤝 Contribuer au projet
Votre feedback est précieux ! Si vous souhaitez contribuer à l'amélioration de Lamina-yl1, vous pouvez :
 * Star le projet sur Hugging Face ⭐
 * Partager vos retours d'expérience et les résultats les plus drôles sur la page de la communauté 💬
 * Nous faire part de vos suggestions et idées d'entraînement 💡
Merci de faire partie de cette aventure ! Ensemble, nous allons faire évoluer Lamina-yl1 pour qu'il devienne plus performant. 🙌

# 🍓Pour parler au modèle vous pouvez copiez ce code dans google colab ou un autre environnement adapté 

```
# 1. Installation des bibliothèques
!pip install transformers torch accelerate -q

import torch
from transformers import pipeline, AutoTokenizer


repo_id = "Clemylia/Lamina-yl1"

print("Chargement du chatbot Lamina...")

try:
    # 3. On charge le pipeline de génération de texte
    chatbot = pipeline(
        'text-generation',
        model=repo_id,
        torch_dtype=torch.bfloat16 # Pour de meilleures performances sur GPU
    )
    print("✅ Lamina est prête à discuter !")

except Exception as e:
    print(f"❌ Erreur lors du chargement du modèle : {e}")
    # On arrête ici si le chargement échoue
    raise SystemExit

# 4. Boucle de discussion
print("\n----------------------------------------------------")
print("🤖 Discussion avec Lamina (tape 'quitter' pour arrêter)")
print("----------------------------------------------------")

while True:
    user_input = input("\n🤔 Vous : ")
    if user_input.lower() == 'quitter':
        print("\nFin de la session.")
        break

    prompt = f"### Instruction:\n{user_input}\n\n### Response:\n"

    result = chatbot(prompt, max_new_tokens=80, truncation=True)

    # On nettoie la réponse pour n'afficher que le texte généré
    full_response = result[0]['generated_text']
    # On ne garde que ce qui se trouve après "### Response:"
    clean_response = full_response.split("### Response:")[1].strip()

    print(f"🤖 Lamina : {clean_response}")
```

**🛑 Les modèles Lamina ne sont pas des Llm comme chatgpt ou gemini de google. Ce sont des modèles que j'ai conçu dans un but d'apprentissage de la création des modeles de language, et ont pour utilité la génération d'idée creatives pour des syntaxes inventes, ou de l'Assemblage/génération de phrases simples.**

peut être considérée comme un Ultra-SLM ou un SLM casual.