from transformers import AutoModelForCausalLM, AutoTokenizer from datasets import load_dataset import streamlit as st # Charger le modèle et le tokenizer model_name = "salmapm/llama2_salma" model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) # Fonction pour générer du texte def generate_text(input_text): """Génère du texte à partir du modèle.""" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs) return tokenizer.decode(outputs[0], skip_special_tokens=True) # Interface utilisateur avec Streamlit st.title("Application Llama 2 Salma") input_text = st.text_input("Entrez votre texte:") if st.button("Générer"): generated_text = generate_text(input_text) st.write(generated_text)