Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
|
@@ -52,9 +52,13 @@ async def chunk_text(data: ChunkRequest):
|
|
| 52 |
try:
|
| 53 |
# ✅ Vérification du texte reçu
|
| 54 |
print(f"✅ Texte reçu ({len(data.text)} caractères) : {data.text[:200]}...")
|
|
|
|
|
|
|
| 55 |
|
| 56 |
# ✅ Chargement du modèle LLM depuis Hugging Face en ligne (pas de .gguf local)
|
| 57 |
llm = LlamaCPP(
|
|
|
|
|
|
|
| 58 |
model_url="https://huggingface.co/leafspark/Mistral-7B-Instruct-v0.2-Q4_K_M-GGUF/resolve/main/mistral-7b-instruct-v0.2.Q4_K_M.gguf",
|
| 59 |
temperature=0.1,
|
| 60 |
max_new_tokens=512,
|
|
@@ -68,8 +72,13 @@ async def chunk_text(data: ChunkRequest):
|
|
| 68 |
def get_text_embedding(self, text: str):
|
| 69 |
return get_embedding(text)
|
| 70 |
|
| 71 |
-
|
| 72 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 73 |
|
| 74 |
|
| 75 |
import sys
|
|
@@ -87,8 +96,12 @@ async def chunk_text(data: ChunkRequest):
|
|
| 87 |
nodes = parser.get_nodes_from_documents([doc])
|
| 88 |
print(f"✅ Nombre de chunks générés : {len(nodes)}")
|
| 89 |
print(f"🧩 Exemple chunk : {nodes[0].text[:100]}...")
|
|
|
|
| 90 |
except Exception as e:
|
|
|
|
|
|
|
| 91 |
print(f"❌ Erreur lors du split sémantique : {e}")
|
|
|
|
| 92 |
nodes = fallback_splitter.get_nodes_from_documents([doc])
|
| 93 |
print(f"⚠️ Split fallback utilisé - chunks générés : {len(nodes)}")
|
| 94 |
|
|
|
|
| 52 |
try:
|
| 53 |
# ✅ Vérification du texte reçu
|
| 54 |
print(f"✅ Texte reçu ({len(data.text)} caractères) : {data.text[:200]}...")
|
| 55 |
+
print("✅ ✔️ Reçu – On passe à la configuration du modèle LLM...")
|
| 56 |
+
|
| 57 |
|
| 58 |
# ✅ Chargement du modèle LLM depuis Hugging Face en ligne (pas de .gguf local)
|
| 59 |
llm = LlamaCPP(
|
| 60 |
+
print("✅ ✔️ Modèle LLM chargé sans erreur – on continue...")
|
| 61 |
+
|
| 62 |
model_url="https://huggingface.co/leafspark/Mistral-7B-Instruct-v0.2-Q4_K_M-GGUF/resolve/main/mistral-7b-instruct-v0.2.Q4_K_M.gguf",
|
| 63 |
temperature=0.1,
|
| 64 |
max_new_tokens=512,
|
|
|
|
| 72 |
def get_text_embedding(self, text: str):
|
| 73 |
return get_embedding(text)
|
| 74 |
|
| 75 |
+
try:
|
| 76 |
+
Settings.llm = llm
|
| 77 |
+
Settings.embed_model = SimpleEmbedding()
|
| 78 |
+
print("✅ ✔️ Settings configurés avec LLM et embedding")
|
| 79 |
+
except Exception as e:
|
| 80 |
+
print(f"❌ Erreur dans la configuration des Settings : {e}")
|
| 81 |
+
return {"error": str(e)}
|
| 82 |
|
| 83 |
|
| 84 |
import sys
|
|
|
|
| 96 |
nodes = parser.get_nodes_from_documents([doc])
|
| 97 |
print(f"✅ Nombre de chunks générés : {len(nodes)}")
|
| 98 |
print(f"🧩 Exemple chunk : {nodes[0].text[:100]}...")
|
| 99 |
+
|
| 100 |
except Exception as e:
|
| 101 |
+
import traceback
|
| 102 |
+
traceback.print_exc()
|
| 103 |
print(f"❌ Erreur lors du split sémantique : {e}")
|
| 104 |
+
|
| 105 |
nodes = fallback_splitter.get_nodes_from_documents([doc])
|
| 106 |
print(f"⚠️ Split fallback utilisé - chunks générés : {len(nodes)}")
|
| 107 |
|