Instructions to use LLM-CLEM/Lamina-extend with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use LLM-CLEM/Lamina-extend with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="LLM-CLEM/Lamina-extend") messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("LLM-CLEM/Lamina-extend") model = AutoModelForCausalLM.from_pretrained("LLM-CLEM/Lamina-extend") messages = [ {"role": "user", "content": "Who are you?"}, ] inputs = tokenizer.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use LLM-CLEM/Lamina-extend with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "LLM-CLEM/Lamina-extend" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "LLM-CLEM/Lamina-extend", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/LLM-CLEM/Lamina-extend
- SGLang
How to use LLM-CLEM/Lamina-extend with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "LLM-CLEM/Lamina-extend" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "LLM-CLEM/Lamina-extend", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "LLM-CLEM/Lamina-extend" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "LLM-CLEM/Lamina-extend", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use LLM-CLEM/Lamina-extend with Docker Model Runner:
docker model run hf.co/LLM-CLEM/Lamina-extend
Documentation Utilisateur : Lamina-extend 🤖✨
Bienvenue dans le monde de Lamina, un modèle de langage en plein apprentissage !
Qu'est-ce que Lamina-extend ?
Lamina-extend est un modèle d'intelligence artificielle en développement. Elle est le fruit d'un entraînement intensif sur des données spécifiques pour lui apprendre à générer du texte, à converser et à répondre à vos questions. Contrairement à un simple programme, Lamina apprend de ses interactions et évolue grâce à l'aide de sa créatrice, Clemylia.
Comment Interagir avec Lamina ? 🗣️
Parlez à Lamina comme vous le feriez avec une personne. Posez-lui des questions, demandez-lui son avis ou engagez une conversation. Plus vos questions sont claires, plus les réponses de Lamina seront pertinentes.
- Saluez-la : "Bonjour", "Salut", "Coucou" 👋
- Présentez-vous : "Qui es-tu ?", "Comment t'appelles-tu ?"
- Posez des questions simples : "De quelle couleur est le ciel ?", "Tu sais chanter ?"
À quoi s'attendre ? 🧠
Lamina est conçue pour générer des réponses textuelles. Elle a une meilleure mémoire des concepts et une plus grande capacité à faire des phrases. Cependant, comme tout modèle en développement, elle a ses particularités !
- Réponses créatives (et surprenantes) : Si une question n'est pas dans ses données, Lamina tentera de générer une réponse en mélangeant les mots qu'elle a appris. Cela peut donner des phrases amusantes ou surréalistes ! 🤣
- Quelques bugs d'orthographe : Lamina est encore en train d'apprendre la grammaire française. Ne vous étonnez pas si vous voyez des fautes ou des mots hachés.
⚠️ Note Importante sur les Limites
Lamina n'est pas un modèle de langage comme ChatGPT. Elle est un modèle from scratch créé par une développeuse. Elle n'a pas accès à Internet, n'a aucune connaissance des événements actuels et ne peut pas comprendre des concepts complexes ou abstraits. Ses réponses sont basées uniquement sur les données qu'elle a reçues.
Aidez Lamina à Grandir ! 🌱
Vos conversations sont une source précieuse d'information pour Clemylia. Si vous trouvez une réponse particulièrement amusante ou étrange, n'hésitez pas à la partager ! Votre feedback est essentiel pour que Lamina puisse continuer à s'améliorer.
Amusez-vous bien ! 🚀
🛑 Les modèles Lamina ne sont pas des Llm comme chatgpt ou gemini de google. Ce sont des modèles que j'ai conçu dans un but d'apprentissage de la création des modeles de language, et ont pour utilité la génération d'idée creatives pour des syntaxes inventes, ou de l'Assemblage/génération de phrases simples.
Lamina-extend peut être considérée comme un Ultra-SLM ou un SLM casual.
Badge d'ancien : ce modèle est un des touts premiers SLM de Clemylia.
- Downloads last month
- 11
