File size: 1,028 Bytes
7b02281
2636834
 
a7bd5fa
2636834
 
a7bd5fa
2636834
 
a7bd5fa
2636834
 
 
 
 
a7bd5fa
2636834
 
4f41a14
7b02281
2636834
 
a7bd5fa
2636834
 
 
 
7b02281
2636834
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
import os
from huggingface_hub import login
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline

# Nombre del modelo (público y sin restricciones)
MODEL_NAME = "bigcode/santacoder"

# Obtener el token del entorno (desde Settings → Secrets)
hf_token = os.environ.get("HF_TOKEN")

# Iniciar sesión segura (sin mostrar token)
if hf_token:
    login(token=hf_token)
else:
    print("⚠️  No se encontró el token. Agrega 'HF_TOKEN' en Settings → Secrets.")

# Cargar el modelo y el tokenizer
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)

# Crear el pipeline
generator = pipeline("text-generation", model=model, tokenizer=tokenizer)

# Ejemplo simple de generación
def generate_text(prompt):
    output = generator(prompt, max_new_tokens=120, temperature=0.7, top_p=0.95)
    return output[0]["generated_text"]

# Ejemplo de prueba
if __name__ == "__main__":
    texto = "AmorCoderAI es una IA creada para"
    print(generate_text(texto))