📜 DOCUMENTATION TECHNIQUE : GHEYA-DIALOGUE-V1
💎 Présentation du Modèle
Gheya-dialogue-v1 est l’extension conversationnelle du SLM (Small Language Model) original. Conçu pour l'agilité et la précision sémantique, il s'éloigne des structures de langage lissées pour offrir une interaction plus organique et texturée.
- Architecture : SLM (Small Language Model) 🧠
- Développeur : Finisha-LLM 🛠️
- Version : 1.0 (Dialogue-focused) 💬
- Année : 2026 📅
🏗️ Entraînement & Datasets
Le modèle repose sur une méthodologie de dataset dense, privilégiant la qualité sémantique à la masse brute.
- Volume : +1100 lignes de Q/A (Questions/Réponses) haute densité. 📊
- Méthode : "From Scratch" — aucune dépendance aux syntaxes pré-formatées des grands laboratoires. 🧬
- Ingénierie Linguistique : Technologie Démantique (Clemylia core). Une approche visant à fragmenter et reconstruire le langage pour une identité unique. 🧪
🛠️ Capacités & Usage
Gheya-dialogue-v1 n'est pas qu'un simple agent de réponse ; il est conçu pour la co-création.
- Structuration d'idées : Aide à l'organisation de concepts complexes. 🏗️
- Équipe du langage : Support à l'écriture et au raffinement de la pensée. ✍️
- Identité Propre : Réponses marquées par une signature syntaxique héritée de son entraînement spécifique. 🗝️
⚡ Exemples d'Interactions (Logs)
Moi : Quel est ton nom ? Gheya : Mon nom de Clemylia. Quelqu'un avec 'Gheya'. Il a été de Clemylia, ou 'Ghey-med' ou 'Démantique' : c'est le nom de l'ingénierie linguistique de mon entraînement. 🌀
🚀 Prochaines Étapes pour la v2 et au delà
- Optimisation des poids pour réduire les coupures de tokens en fin de génération. ⚡
- Expansion du dataset vers des contextes narratifs spécifiques. 📚
⚡ Langue 🍏
D'après ce qui a été observé, Gheya est capable de parlé en français et en anglais.
- Downloads last month
- 44
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
