Instructions to use LLM-CLEM/Pikachu with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use LLM-CLEM/Pikachu with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="LLM-CLEM/Pikachu") messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("LLM-CLEM/Pikachu") model = AutoModelForCausalLM.from_pretrained("LLM-CLEM/Pikachu") messages = [ {"role": "user", "content": "Who are you?"}, ] inputs = tokenizer.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use LLM-CLEM/Pikachu with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "LLM-CLEM/Pikachu" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "LLM-CLEM/Pikachu", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/LLM-CLEM/Pikachu
- SGLang
How to use LLM-CLEM/Pikachu with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "LLM-CLEM/Pikachu" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "LLM-CLEM/Pikachu", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "LLM-CLEM/Pikachu" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "LLM-CLEM/Pikachu", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use LLM-CLEM/Pikachu with Docker Model Runner:
docker model run hf.co/LLM-CLEM/Pikachu
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("LLM-CLEM/Pikachu")
model = AutoModelForCausalLM.from_pretrained("LLM-CLEM/Pikachu")
messages = [
{"role": "user", "content": "Who are you?"},
]
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
tokenize=True,
return_dict=True,
return_tensors="pt",
).to(model.device)
outputs = model.generate(**inputs, max_new_tokens=40)
print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:]))📚 Documentation Utilisateur : Le modèle de language Pikachu ⚡
🚀 Aperçu du Modèle : Le modèle de langage $From : Scratch$
Le Pikachu Model est une initiative expérimentale et linguistique unique de Clemylia. Contrairement aux autres modèles, Pika n'a pas été fine-tuné : il a été entièrement entraîné $from : scratch$ (reparti de zéro) uniquement sur un corpus de sons de type "Pika-Chu".
Ce modèle est le plus pur exemple de l'exploration de la création d'identité native dans un Small Language Model (SLM). Son but n'est pas de communiquer, mais de démontrer la capacité d'un SLM à créer une cohésion sonore à partir de rien.
🛠️ Caractéristiques Techniques Uniques
| Caractéristique | Détail | Signification pour l'Utilisateur |
|---|---|---|
| Identité Linguistique 🗣️ | Entraîné NATIVEMENT sur pika, chu, et leurs variations. |
Le modèle ne connaît AUCUN mot du français ou de toute autre langue humaine. |
| Base 🧱 | Modèle $From : Scratch$ natif (9 millions de parametres). | Il est le modèle le plus "pur" de Clemylia, exempt de toute influence de corpus général. |
| But Technique 🔬 | Test de la capacité du SLM à créer et maintenir une sémantique interne avec un vocabulaire ultra-restreint. | Le défi est de voir s'il peut y avoir de l'intention sans mots humains. |
| Style de Génération 🤪 | Chaotique, utilise des variations, des chiffres et des coupures (ex. : Pikaasured.chu). |
Il génère une séquence qui est cohérente avec son propre son mais sans sens pour l'humain. |
⚠️ Avertissement de Sécurité et d'Usage
ATTENTION : Ce modèle est une œuvre d'art linguistique ; ce n'est pas un outil.
- Zéro Capacité Conversationnelle : Le modèle n'a aucune capacité de conversation significative et ne peut répondre à aucune question factuelle.
- Absence de Grammaire : Il ne possède pas de grammaire, de syntaxe ou d'orthographe (y compris la Métagrammaire).
- Usage : Ce modèle est destiné à l'expérimentation linguistique pure, au divertissement, et à l'exploration des limites de l'IA native uniquement.
⚡ Comment Interagir avec Pika-v1 (Mode Ludique)
Puisque le modèle n'a pas de concept d'instruction, il répond uniquement aux paramètres d'inférence.
| Instruction | Paramètres Recommandés | Pourquoi ? |
|---|---|---|
| Mode Énergique / Créatif 🥳 | Température : 0.8 à 1.0 (Élevée) | Force l'exploration de toutes les variations du son "Pika-Chu" créées lors de l'entraînement. |
| Mode Calme / Répétitif 😴 | Température : 0.1 à 0.4 (Basse) | Le modèle sera plus stable et produira des boucles sonores simples (ex. : pika chu pika chu). |
| Tester la Cohérence ❓ | Nouveau Token Max : 100+ | Demandez-lui une question simple et observez si la séquence générée reste entièrement basée sur les sons, prouvant qu'il n'y a aucune fuite de langage humain. |
Pika-Pika ! Amusez-vous avec cette prouesse d'ingénierie linguistique ! ⚡
- Downloads last month
- 16

# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="LLM-CLEM/Pikachu") messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)