From scratch
Collection
Finisha SLM ✨ • 87 items • Updated
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("Finisha-F-scratch/Copina")
model = AutoModelForCausalLM.from_pretrained("Finisha-F-scratch/Copina")
messages = [
{"role": "user", "content": "Who are you?"},
]
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
tokenize=True,
return_dict=True,
return_tensors="pt",
).to(model.device)
outputs = model.generate(**inputs, max_new_tokens=40)
print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:]))Hey! Copina est une assistante SLM, conçu pour générer des compliments en anglais :)
Copina est un modèle, affiné a partir de learnia (pré-entrainer par LLm-Clem) Afin de vous complimenter en anglais.
vous pouvez l'utiliser quand vous doutez de vous, ou pour générer des compliments mignons.
Copina s'utilise normalement, De la manière la plus simple
Copina, comme toute IA basés sur des SLM a des limitations :
Bonne utilisation !
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="Finisha-F-scratch/Copina") messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)