Instructions to use NaA-IA/Lam-3 with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use NaA-IA/Lam-3 with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="NaA-IA/Lam-3") messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("NaA-IA/Lam-3") model = AutoModelForCausalLM.from_pretrained("NaA-IA/Lam-3") messages = [ {"role": "user", "content": "Who are you?"}, ] inputs = tokenizer.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use NaA-IA/Lam-3 with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "NaA-IA/Lam-3" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "NaA-IA/Lam-3", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/NaA-IA/Lam-3
- SGLang
How to use NaA-IA/Lam-3 with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "NaA-IA/Lam-3" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "NaA-IA/Lam-3", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "NaA-IA/Lam-3" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "NaA-IA/Lam-3", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use NaA-IA/Lam-3 with Docker Model Runner:
docker model run hf.co/NaA-IA/Lam-3
🌸 Lam-3 / SLM Lamina 🌸
Bienvenue sur la documentation officielle de Lam-3 !
Lam-3 est un SLM de la série lamina, fine-tuné a partir du blank : Clemylia/lamina-suite-pretrain. l'entraînement de Lam-3 a durer 3 heures sur GPU T4, et il fait 0,7 milliards (714 millions) de paramètres.
Ce SLM a été entrainer sur la dataset Clem27sey/Nacid, contenant 1358 questions/réponses a ce moment.
Lam-3 a été cree from scratch (de zero) par Clemylia, a partir de sa propre base.
♥️ Informations et Usage ♥️
Lam-3 est programmée pour répondre a des questions (identitaires, et de base) et fournir ses propres réponses, parfois absurde, mais originale, il ne copie colle pas ses données d'entraînement a la lettre, il est créatif.
Si Lam-3 génère du charabia illisible du type : J e s R L M O N A R C H I E E R J ' {¥{`{ }}}, c'est normal. cela lui arrive parfois, même si ses phrases sont lisibles la plupart du temps, et cela viens sûrement de votre propre paramètrage et code d'inférence.
Lam-3 a été cree avec l'architecture transformers. même si il est créé from scratch (a partir de zero).
Non responsabilité :
nous ne sommes pas responsables des absurdité potentielles (le fromage feta et réduit le château de Versailles) ou encore (La Galaxie est la monnaie de la Pologne),
ou du moins, nous ne sommes pas responsables des conséquences, si quelq'un est assez bête pour croire le modèle.
🦋 Bonne utilisation!
🛑 : Lam, sur toutes ses iterations et modèles (Lam-1, Lam-2, Lam-3 , et supérieur etc...), sont des créations de Clemylia, et du studio LES-IA-ETOILES. De ce fait, ce SlM est la propriété de l'organisation qui le crée et le maintient.
exemple de code d'utilisation :
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("Clemylia/Lam-3")
model = AutoModelForCausalLM.from_pretrained("Clemylia/Lam-3")
messages = [
{"role": "user", "content": "Qui es-tu ?"},
]
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
tokenize=True,
return_dict=True,
return_tensors="pt",
).to(model.device)
outputs = model.generate(**inputs, max_new_tokens=150, do_sample=True, temperature=0.7, repetition_penalty=1.2)
print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:]))
print('fin')
🎉 Lam-3 est créatif : Lam-3 peut inventer des mots et des synthaxes comme tenaire, c'est totalement normal, et est même une fonctionnalité. En tant que SLM il n'est pas conçu pour etre chatgpt.
Les SLM Lam (et par extension tout les modèles lamina), appartiennent a Clemylia et a l'organisation LES-IA-ETOILES.
Information : Le droit d'utiliser lam-3 comme base, pour la création de d'autres modèles est autorisé, sous demande.
- Downloads last month
- 4
Model tree for NaA-IA/Lam-3
Base model
Finisha-F-scratch/Lamina-suite-pretrain