Nom de votre modèle
Introduction
Décrivez ici le but et les caractéristiques principales de votre modèle. Par exemple, s'il est spécialisé dans la génération de textes liés à la fiscalité en français.
Configuration requise
Indiquez les versions des bibliothèques nécessaires, comme transformers, et toute autre dépendance.
Démarrage rapide
Fournissez un exemple de code montrant comment charger le modèle et générer du texte :
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Aktraiser/model_test1"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Votre prompt ici."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
generated_ids = model.generate(
**inputs,
max_new_tokens=512
)
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)
Model tree for Aktraiser/model_test1
Base model
unsloth/Meta-Llama-3.1-8B
Install from pip and serve model
# Install vLLM from pip: pip install vllm# Start the vLLM server: vllm serve "Aktraiser/model_test1"# Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Aktraiser/model_test1", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }'