Spaces:
Runtime error
Runtime error
| import os | |
| from huggingface_hub import login | |
| from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline | |
| # Nombre del modelo (público y sin restricciones) | |
| MODEL_NAME = "bigcode/santacoder" | |
| # Obtener el token del entorno (desde Settings → Secrets) | |
| hf_token = os.environ.get("HF_TOKEN") | |
| # Iniciar sesión segura (sin mostrar token) | |
| if hf_token: | |
| login(token=hf_token) | |
| else: | |
| print("⚠️ No se encontró el token. Agrega 'HF_TOKEN' en Settings → Secrets.") | |
| # Cargar el modelo y el tokenizer | |
| tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME) | |
| model = AutoModelForCausalLM.from_pretrained(MODEL_NAME) | |
| # Crear el pipeline | |
| generator = pipeline("text-generation", model=model, tokenizer=tokenizer) | |
| # Ejemplo simple de generación | |
| def generate_text(prompt): | |
| output = generator(prompt, max_new_tokens=120, temperature=0.7, top_p=0.95) | |
| return output[0]["generated_text"] | |
| # Ejemplo de prueba | |
| if __name__ == "__main__": | |
| texto = "AmorCoderAI es una IA creada para" | |
| print(generate_text(texto)) |