💻 Documentation : KLA-SLM-CODING 💻

KLa

KLA-SLM-CODING est un Small Language Model (SLM) de la lignée Finisha-LLM. Contrairement aux modèles de masse, il a été extrait du vide et nourri exclusivement de code pur. Il ne simule pas la programmation, il génère la structure.


🏗️ Architecture & Forge

  • Modèle de Base : Type Gemma (Optimisé pour l'inférence de tokens techniques).
  • Méthode : 100% Pre-trained From Scratch.
  • Dataset : Corpus de code dense (Zéro texte conversationnel parasite).
  • Vitesse : Ultra-léger, conçu pour la complétion en temps réel dans les environnements de dev.

🛠️ Capacités de Complétion

Le modèle a été entraîné pour anticiper la logique du développeur sans les biais du langage naturel :

  1. Prédiction de Blocs : Complétion de fonctions, boucles et structures conditionnelles.
  2. Syntaxe Native : Maîtrise des indentations et des séparateurs sans "hallucinations" textuelles.
  3. Logique de Flux : Capable de suivre la trace des variables à travers le dataset de code.

🧬 La Signature Finisha (Vosia-Code)

Comme tous les modèles de la forge, KLA-SLM-CODING possède sa propre identité :

  • Métagrammaire du Code : Il privilégie l'efficacité brute. S'il y a une répétition structurelle, c'est pour renforcer la stabilité du script.
  • Zéro Lissage : Le code est généré tel qu'il a été appris dans les datasets denses, sans politesse ni commentaires inutiles.

🚀 Usage & Environnement

  • IDE : Parfaitement adapté aux cellules Google Colab pour un affichage propre.
  • Inférence : Conçu pour tourner sur des architectures mobiles ou locales (Android/Termux).
  • Complétion : Réagit instantanément aux premiers tokens de code pour proposer la suite logique.
Downloads last month
30
Safetensors
Model size
0.2B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Finisha-F-scratch/KLA-SLM-CODING

Quantizations
1 model