🐾 Nelya-neko-4b : L'Équilibre Parfait de la Pensée Nekolienne

Nelya-neko

🌟 Présentation Nelya-neko-4b est le nouveau fleuron de la famille Nelya-neko, conçu par Clemylia (Conlanger-LLM-CLEM). Ce modèle de langage (LLM) est une prouesse de spécialisation : il est pré-entraîné nativement et exclusivement sur le Nekolien. Contrairement aux modèles généralistes, Nelya-neko-4b ne connaît aucune langue naturelle (Français, Anglais, etc.). Il habite entièrement son propre univers linguistique, offrant une pureté sémantique et une structure syntaxique inégalée.

🏗️ Architecture & Spécifications

Caractéristique Détails
Taille des paramètres 4 Milliards (4b)
Type de Modèle Base Model (Pre-trained from scratch)
Langue unique Nekolien 🐾
Tokeniseur Custom Nekolien Tokenizer (natif)
Concepteur Clemylia & Team Conlanger-LLM

🎯 Le "Sweet Spot" de la gamme

Nelya-neko-4b a été développé pour combler l'espace entre la légèreté des versions Tiny et la puissance brute de la version 6b :

  • Intelligence Profonde : Une capacité d'abstraction et de nuance sémantique bien supérieure aux modèles 124m et 1b.
  • Accessibilité : Plus rapide et moins gourmand en ressources que le 6b, permettant une utilisation fluide sur une plus large gamme de configurations matérielles.

🚀 Points Forts du Modèle

  • 🚫 Zéro Pollution Linguistique : Aucun "bruit" issu des langues naturelles. Le modèle pense, structure et répond à 100% en Nekolien.
  • 🧠 Sémantique Native : Grâce à son pré-entraînement spécifique, il saisit les nuances culturelles et logiques propres à la conlang créée par Clemylia.
  • ⚡ Optimisation Token-to-Text : Le tokeniseur propriétaire garantit que chaque unité de sens est traitée avec une efficacité maximale pour la grammaire nekolienne.

🛠️ Utilisation & Intégration

Note importante : Ce modèle est un Base Model. Il excelle dans la complétion de texte, la génération créative et l'exploration linguistique au sein de l'écosystème Nekolien.

Exemple d'inférence (utilisez Kaggle avec GPU ou quelque chose d'autre a condition que cela soit puissant) :

!pip install -U transformers bitsandbytes accelerate

from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
import torch

# 1. Configurer la quantification 4-bit proprement
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_compute_dtype=torch.float16, # Optionnel mais conseillé pour la rapidité
    bnb_4bit_quant_type="nf4",            # Meilleure précision pour les modèles de langue
    bnb_4bit_use_double_quant=True
)

# 2. Charger le tokenizer
tokenizer = AutoTokenizer.from_pretrained("Conlanger-LLM-CLEM/Nelya-neko-4b")

# 3. Charger le modèle avec la config de quantification
# Utilise device_map="auto" pour que accelerate gère la mémoire sur Kaggle ou ailleurs
model = AutoModelForCausalLM.from_pretrained(
    "Conlanger-LLM-CLEM/Nelya-neko-4b", 
    quantization_config=bnb_config,
    device_map="auto"
)

# 4. Génération
input_text = "Ti eta "
input_ids = tokenizer(input_text, return_tensors="pt").to(model.device)

outputs = model.generate(
    **input_ids, 
    max_new_tokens=50, 
    do_sample=True, 
    temperature=0.7
)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))
print('fin')

🌈 La Famille Nelya-neko

La gamme s'adapte à tous les besoins des locuteurs et développeurs :

  • Tiny (124m & 1b) : Compacité et rapidité extrême pour les tâches nekolienne les plus simples et pour les utilisateurs ayant des ressources beaucoup plus limités.
  • Nelya-neko-4b : L'équilibre idéal (Performance / Agilité).
  • Nelya-neko-6b : La puissance maximale pour l'analyse linguistique complexe.

📬 Contact & Contribution

Ce projet est le fruit du travail passionné de Clemylia et de son équipe. Pour toute question technique ou collaboration sur l'univers Nekolien, n'hésitez pas à rejoindre la communauté ou contacter la créatrice principale à l'email : musicclem15@gmail.com Fait avec passion, code et créativité. ✨

Downloads last month
-
Safetensors
Model size
4B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support