Spaces:
Runtime error
Runtime error
| from transformers import GPT2LMHeadModel, GPT2Tokenizer | |
| def generate_text(prompt, model_name="gpt2-medium", max_length=100, num_return_sequences=1): | |
| # Charger le modèle et le tokenizer | |
| tokenizer = GPT2Tokenizer.from_pretrained('rombodawg/test_dataset_Codellama-3-8B') | |
| model = GPT2LMHeadModel.from_pretrained('rombodawg/test_dataset_Codellama-3-8B') | |
| # Encoder le prompt en tokens | |
| input_ids = tokenizer.encode(prompt, return_tensors="pt") | |
| # Générer du texte | |
| output = model.generate( | |
| input_ids, | |
| max_length=max_length, | |
| num_return_sequences=num_return_sequences, | |
| no_repeat_ngram_size=2, | |
| top_k=50, | |
| top_p=0.95, | |
| temperature=0.7, | |
| pad_token_id=tokenizer.eos_token_id | |
| ) | |
| # Décoder les résultats en texte | |
| generated_text = tokenizer.decode(output[0], skip_special_tokens=True) | |
| return generated_text | |
| # Exemple d'utilisation | |
| prompt = "Une fois dans une forêt sombre, un aventurier solitaire" | |
| generated_text = generate_text(prompt) | |
| print(generated_text) | |