Spaces:
Sleeping
Sleeping
Update core/extractor.py
Browse files- core/extractor.py +2 -2
core/extractor.py
CHANGED
|
@@ -76,7 +76,7 @@ class ExtractorEngine:
|
|
| 76 |
|
| 77 |
def _get_labels_from_llm(self, text: str):
|
| 78 |
"""Phase de découverte : le LLM définit les étiquettes à chercher."""
|
| 79 |
-
prompt = f"Analyse ce texte et liste
|
| 80 |
inputs = self.tokenizer(prompt, return_tensors="pt").to("cpu")
|
| 81 |
with torch.no_grad():
|
| 82 |
outputs = self.model.generate(**inputs, max_new_tokens=50)
|
|
@@ -90,7 +90,7 @@ class ExtractorEngine:
|
|
| 90 |
|
| 91 |
system_prompt = """Tu es un expert en graphes de connaissance.
|
| 92 |
Utilise les ENTITÉS extraites pour créer des RELATIONS précises basées sur le TEXTE.
|
| 93 |
-
Les relations doivent être des verbes courts en MAJUSCULES
|
| 94 |
Réponds strictement en JSON sans explications."""
|
| 95 |
|
| 96 |
user_prompt = f"SCHÉMA:\n{self.json_schema}\n\nENTITÉS DÉTECTÉES:\n{ents_str}\n\nTEXTE:\n{text}\n\nJSON:"
|
|
|
|
| 76 |
|
| 77 |
def _get_labels_from_llm(self, text: str):
|
| 78 |
"""Phase de découverte : le LLM définit les étiquettes à chercher."""
|
| 79 |
+
prompt = f"Analyse ce texte et liste les types d'entités importants à extraire. Texte: {text[:600]}... Liste séparée par des virgules:"
|
| 80 |
inputs = self.tokenizer(prompt, return_tensors="pt").to("cpu")
|
| 81 |
with torch.no_grad():
|
| 82 |
outputs = self.model.generate(**inputs, max_new_tokens=50)
|
|
|
|
| 90 |
|
| 91 |
system_prompt = """Tu es un expert en graphes de connaissance.
|
| 92 |
Utilise les ENTITÉS extraites pour créer des RELATIONS précises basées sur le TEXTE.
|
| 93 |
+
Les relations doivent être des verbes courts en MAJUSCULES.
|
| 94 |
Réponds strictement en JSON sans explications."""
|
| 95 |
|
| 96 |
user_prompt = f"SCHÉMA:\n{self.json_schema}\n\nENTITÉS DÉTECTÉES:\n{ents_str}\n\nTEXTE:\n{text}\n\nJSON:"
|