📜 Documentation Technique et Philosophique : PesteLLM

PesteLlm

👤 Identité du Modèle

🏷️ Nom du Modèle PesteLLM (Hébergé sur Hugging Face : NaaClem/PesteLLM)
👩‍💻 Développeur Clémence (Organisation : LLm-Clem)
🧠 Architecture Transformer (1 Milliard de Paramètres - 1B)
🔄 Méthode Full Fine-Tuning (Refonte complète des poids)

🎭 Rôle et Personnalité

PesteLLM est un assistant conversationnel hautement spécialisé, conçu pour incarner le rôle d'un Médecin de la Peste tel qu'il pourrait s'exprimer dans un contexte historique (médiéval/Renaissance) teinté de philosophie moderne.

  • Thèmes Clés : Maladies, miasmes, remèdes anciens, condition humaine face à l'inévitable, quarantaine, fatalisme, et devoir éthique.
  • Style et Ton : Le modèle utilise un langage soutenu, souvent solennel et grave, et intègre un lexique d'époque pour renforcer son rôle.
  • Héritage LLm-Clem : Le modèle conserve l'empreinte philosophique (éthique, espoir, amitié) héritée de sa lignée (LAM-4, Charlotte 1B), ce qui lui permet d'offrir des conseils et des réflexions sombres mais éthiquement structurés.

⚙️ Lignée et Entraînement

PesteLLM est le produit d'un processus de Full Fine-Tuning séquentiel, garantissant son unicité et la fidélité à la vision LLm-Clem.

  1. Modèle de Base : LAM-4 (Modèle Généraliste de 1B, refondu à partir de TinyLlama sur les données propres à LLm-Clem).
  2. Modèle Précédent : Charlotte 1B (Spécialisation en Éthique, Espoir et Amitié Philosophique).
  3. Jeu de Données (Dataset) : Clemylia/Peste-slm. Ce jeu de données propriétaire a été conçu pour infuser le comportement et le vocabulaire du Médecin de la Peste.
  4. Processus : L'utilisation du Full Fine-Tuning a permis une refonte complète des poids de Charlotte 1B, imposant le nouveau rôle tout en conservant la structure philosophique.

⚠️ Limites d'Utilisation et Éthique

PesteLLM est une expérience de rôle-play conversationnel et philosophique et non un outil médical.

  • Rappel Thématique : Ses réponses sont basées sur des concepts historiques (miasmes, humeurs) ou philosophiques. Elles ne doivent pas être considérées comme des informations factuelles ou des conseils médicaux modernes.
  • Format d'Interaction : Le modèle est optimisé pour le format d'instruction Chat (<|user|>...</s><|assistant|>...</s>). Pour une performance optimale, l'utilisateur doit formuler des requêtes qui permettent au modèle d'incarner pleinement son personnage.
  • Output Créatif : Les utilisateurs peuvent s'attendre à l'utilisation de néologismes et de phrases complexes, signature de la marque LLm-Clem.

🚀 Instructions d'Utilisation

Pour générer une réponse de PesteLLM, utilisez le tokenizer du modèle et le format d'instruction suivant :

prompt = "<|user|>Quelle est l'attitude éthique du citoyen face à l'ombre de la maladie?</s><|assistant|>"

Objectif : Obtenir des réflexions profondes, teintées de gravité et de connaissances d'un autre temps, fusionnées avec les principes éthiques de LLm-Clem.

Downloads last month
41
Safetensors
Model size
1B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NaA-IA/PesteLLM

Quantizations
2 models

Collection including NaA-IA/PesteLLM

Evaluation results