Update app.py
Browse files
app.py
CHANGED
|
@@ -331,13 +331,15 @@ async def call_hf_model(prompt: str, temperature: float = 0.5, max_tokens: int =
|
|
| 331 |
logger.debug(f"PROMPT => {content_preview}")
|
| 332 |
try:
|
| 333 |
resp = client.text_generation(
|
| 334 |
-
HF_MODEL, # Argomento posizionale
|
| 335 |
-
prompt, # Argomento posizionale
|
| 336 |
-
|
| 337 |
-
|
| 338 |
-
|
|
|
|
|
|
|
| 339 |
)
|
| 340 |
-
|
| 341 |
raw = resp.get("generated_text", "")
|
| 342 |
if not raw:
|
| 343 |
raise ValueError("Nessun testo generato dal modello.")
|
|
|
|
| 331 |
logger.debug(f"PROMPT => {content_preview}")
|
| 332 |
try:
|
| 333 |
resp = client.text_generation(
|
| 334 |
+
HF_MODEL, # Argomento posizionale: modello
|
| 335 |
+
prompt, # Argomento posizionale: input
|
| 336 |
+
parameters={
|
| 337 |
+
"temperature": temperature,
|
| 338 |
+
"max_new_tokens": max_tokens,
|
| 339 |
+
"top_p": 0.9
|
| 340 |
+
}
|
| 341 |
)
|
| 342 |
+
logger.debug(f"Risposta completa dal modello: {resp}")
|
| 343 |
raw = resp.get("generated_text", "")
|
| 344 |
if not raw:
|
| 345 |
raise ValueError("Nessun testo generato dal modello.")
|