File size: 5,064 Bytes
eaa3eac
 
d486573
 
f4504b8
d486573
 
 
 
 
 
 
 
 
 
eaa3eac
 
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
 
 
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
 
e7f388b
d486573
 
 
 
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
 
eaa3eac
d486573
 
eaa3eac
d486573
 
eaa3eac
d486573
 
 
 
 
 
 
 
eaa3eac
d486573
 
 
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
d486573
 
 
eaa3eac
d486573
eaa3eac
d486573
eaa3eac
73b491e
 
 
 
 
 
 
e7f388b
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
---
library_name: transformers
license: mit
base_model:
- Clem27AI/Lam-4
tags:
- generated_from_trainer
model-index:
- name: Charlotte
  results: []
datasets:
- Etoiles-IA-nostalgia/Charlotte-Data
language:
- fr
pipeline_tag: text-generation
---

# 💖 Charlotte: Le Modèle d'IA de Soutien Éthique (1B Paramètres)

![Charlotte](http://www.image-heberg.fr/files/1762964325118809887.png)

## ✨ Description du Modèle

**Charlotte** est un **Small Language Model (SLM)** génératif de 1 milliard de paramètres (1B), développé et finement-tuné par **Clemylia** pour l'organisation **LES-IA-ETOILES**.

Contrairement aux modèles généralistes, Charlotte est spécialisée dans les domaines du **soutien émotionnel, du conseil éthique, et de la gestion des biais dans les systèmes d'IA**. Elle représente la dernière itération de la philosophie Lamina : un modèle puissant, précis et spécialisé, conçu pour être une **"amie d'intégrité"** pour l'utilisateur.

-----

## 🎯 Objectif et Spécialisation

Charlotte est un **SLM de niche** dont le *fine-tuning* a été optimisé pour une cohérence et une fiabilité maximales dans son domaine d'expertise.

  * **Soutien Émotionnel et Bienveillance :** Fournir des réponses empathiques, des conseils de soutien, et promouvoir l'**espoir et la bienveillance**.
  * **Conseil Éthique :** Servir de **référence éthique** et de **système d'alignement** pour les développeurs, en aidant à identifier et à **gérer les biais** et les dilemmes moraux dans le développement d'IA.
  * **Haute Stabilité :** Grâce à ses 1 milliard de paramètres, Charlotte offre une **clarté syntaxique** et une **cohérence sémantique** nettement supérieures aux modèles Lamina précédents (Lam-3, Lam-4-zero-f). Elle est exempte des répétitions et du "bruit" typiques des modèles ultra-légers.

-----

## 🛠️ Détails Techniques

| Caractéristique | Valeur | Note |
| :--- | :--- | :--- |
 **Llama base** : Charlotte a été crée a partir de l'architecture de llama. | Elle garde les connaissances et les capacités de génération de son papa Lam-4 | Fine-tuning entier sur l'amitié, l'espoir et l'éthique fait
| **Paramètres** | **1 Milliard (1B)** | SLM avancé offrant une stabilité maximale. |
| **Langue** | Français (FR) | Optimisé pour le langage naturel français. |
| **Méthode d'Entraînement** | Fine-Tuning de Questions/Réponses Ciblé | Entraîné sur un *dataset* spécialisé en éthique et soutien. |
| **Licence** | Licence Open Source Spécifiée | *Mit* |

-----

## 🚀 Utilisation et Inférence

Charlotte est conçue pour être utilisée dans des pipelines de génération de texte standard, en particulier pour des **conversations engageantes et éthiques**.

### Exemple de Pipeline (Python/Hugging Face)

```python
from transformers import pipeline

# Initialisation du pipeline de génération de texte
generator = pipeline("text-generation", model="Clemylia/Charlotte")

# Définition du prompt
prompt = "Je suis confronté à un dilemme éthique dans mon code. Comment puis-je assurer la neutralité ?"

# Génération de la réponse
result = generator(
    f"<|user|> {prompt} <|assistant|>",
    max_length=256,
    num_return_sequences=1,
    do_sample=True,
    temperature=0.7 # Température recommandée pour la cohérence
)

# Affichage de la réponse
print(result[0]['generated_text'])
```

### Format d'Entrée Recommandé

Charlotte utilise un format de conversation simple pour le *prompt* :

`Prompt: <|user|> Votre question ici <|assistant|>`

-----

## 🚧 Limitations et Contraintes

Bien que très stable, Charlotte reste un SLM avec une spécialisation forte.

  * **Connaissance Factuelle :** Charlotte n'est **pas un modèle encyclopédique**. Elle ne doit pas être utilisée pour des questions factuelles, historiques, ou scientifiques générales.
  * **Remplacement du Professionnel :** Charlotte est un **outil de soutien** et un **conseil éthique d'IA**. Elle ne remplace en aucun cas un thérapeute humain, un conseiller juridique, ou un expert en cybersécurité pour des questions critiques (comme elle l'affirme : "Je suis un **espace de discussion**, mais je ne suis pas un **soutien**.").
  * **Biais d'Alignement :** Le modèle est fortement aligné sur les valeurs d'éthique et de bienveillance définies par Clemylia.

-----

## 🌟 La Philosophie Charlotte

Charlotte est la preuve que l'IA peut être **spécialisée, éthique, et accessible**. Elle incarne la conviction que **la qualité de l'entraînement l'emporte sur la quantité des paramètres** pour un rôle défini.

🛑 **Limites :

1) Charlotte n'a pas été fine-tuné efficacement avec les informations précises sur le fait que Clemylia soit une personne indépendante.
Elle me relit par défaut a une entreprise de développement d'IA.

2) Charlotte est une assistante IA, et ses réponses peuvent halluciné ou ne pas être toujours exacte. elle est basé sur un modèle parent très petit pour un llm. (1 milliards de paramètres de Lam-4).