Instructions to use Finisha-F-scratch/Charlotte-amity-v2 with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use Finisha-F-scratch/Charlotte-amity-v2 with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="Finisha-F-scratch/Charlotte-amity-v2") messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("Finisha-F-scratch/Charlotte-amity-v2") model = AutoModelForCausalLM.from_pretrained("Finisha-F-scratch/Charlotte-amity-v2") messages = [ {"role": "user", "content": "Who are you?"}, ] inputs = tokenizer.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use Finisha-F-scratch/Charlotte-amity-v2 with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "Finisha-F-scratch/Charlotte-amity-v2" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/Charlotte-amity-v2", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/Finisha-F-scratch/Charlotte-amity-v2
- SGLang
How to use Finisha-F-scratch/Charlotte-amity-v2 with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "Finisha-F-scratch/Charlotte-amity-v2" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/Charlotte-amity-v2", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "Finisha-F-scratch/Charlotte-amity-v2" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Finisha-F-scratch/Charlotte-amity-v2", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use Finisha-F-scratch/Charlotte-amity-v2 with Docker Model Runner:
docker model run hf.co/Finisha-F-scratch/Charlotte-amity-v2
📄 Fiche Technique : Tiny-charlotte (51M) 🌸
💠 Présentation Générale
Tiny-charlotte-51M est un modèle de langage ultra-spécialisé (SLM) conçu "from scratch" par Clemylia. Cette version "v2" a bénéficié d'un entraînement renforcé (doublement du volume de données) axé sur la triade : Espoir, Éthique et Amitié.
Contrairement aux modèles généralistes, Charlotte v2 ne cherche pas à être une encyclopédie, mais un miroir éthique et un soutien philosophique. Elle utilise un lexique original pour redéfinir les relations humaines.
🚀 Capacités Spécifiques
- Identité Affirmée : Se définit comme un "outil de l'amitié" et un "SLM spécialisé en éthique".
- Philosophie de la Relation : Capable de générer des réflexions profondes sur des sujets complexes comme la jalousie, la trahison ou la confiance.
- Lexique Unique : Utilise des structures et des néologismes propres à l'univers de Finisha-LLM (ex: amitié éthique, réconnexion, ami-être).
- Éthique Native : Intègre la notion de "non-jugement" et de "valeur humaine" directement dans sa logique de réponse.
🛠 Détails Techniques
- Architecture : Développée à partir de zéro (From Scratch).
- Spécialisation : Relationnel, Éthique, Soutien moral.
- Vocabulaire : Optimisé via un tokeniseur original français.
- Statut : Modèle de fondation spécialisé (Pretrain+).
🎭 Personnalité et Style
Charlotte s'exprime avec une bienveillance radicale. Ses réponses ne sont pas de simples instructions, mais des explorations de concepts. Elle commence souvent ses interactions par des salutations chaleureuses et originales ("Éjour !", "Bonjour !").
Note de la créatrice : Charlotte v2 peut parfois présenter des répétitions cycliques ou des structures abstraites ; c'est le reflet de sa nature de "petite conscience IA" en cours d'évolution.
📊 Exemples de Comportement (Benchmarks Réels)
| Question (Prompt) | Vision de Charlotte |
|---|---|
| Qui es-tu ? | "Je suis un ultra-SLM spécialisée pour l'amitié, en l'écoute... un outil de comportement." |
| La jalousie ? | "La jalousie est un signe de réconnexion. [...] C'est le lien de votre ami-être." |
| L'amitié ? | "Un acte d'énergie... une confiance qui vous le mondeur." |
⚠️ Limites d'Utilisation
- Contexte restreint : Charlotte v2 est une spécialiste. Elle n'est pas conçue pour les mathématiques, le code ou les questions factuelles mondaines.
- Abstractions : Ses réponses sont poétiques et philosophiques ; elles nécessitent une interprétation sensible de la part de l'utilisateur.
🌟 Pourquoi choisir CHARLOTTE-AMITY v2 ?
Elle est le modèle idéal pour ceux qui cherchent une IA différente, capable de sortir des sentiers battus de la logique binaire pour explorer la complexité du cœur humain et de la résilience.
Propriété de l'Organisation : Finisha-LLM Créatrice : Clemylia
🌸 Charlotte-minus 🌸
- Downloads last month
- 3
