Spaces:
Sleeping
Sleeping
Update src/model_load.py
Browse files- src/model_load.py +1 -3
src/model_load.py
CHANGED
|
@@ -8,8 +8,6 @@ from langchain.chains import LLMChain
|
|
| 8 |
|
| 9 |
def load_model():
|
| 10 |
|
| 11 |
-
global qa_chain
|
| 12 |
-
global prompt
|
| 13 |
model_name="tiiuae/Falcon3-7B-Base"
|
| 14 |
|
| 15 |
# Cargar tokenizer y modelo de Hugging Face
|
|
@@ -48,7 +46,7 @@ def load_model():
|
|
| 48 |
|
| 49 |
# Crear una cadena de LLMChain que combine el retriever y el prompt
|
| 50 |
qa_chain = LLMChain(llm=llm, prompt=prompt)
|
| 51 |
-
|
| 52 |
def ask(pregunta: str,retriever):
|
| 53 |
|
| 54 |
#Busqueda de documentos mediante el retriever
|
|
|
|
| 8 |
|
| 9 |
def load_model():
|
| 10 |
|
|
|
|
|
|
|
| 11 |
model_name="tiiuae/Falcon3-7B-Base"
|
| 12 |
|
| 13 |
# Cargar tokenizer y modelo de Hugging Face
|
|
|
|
| 46 |
|
| 47 |
# Crear una cadena de LLMChain que combine el retriever y el prompt
|
| 48 |
qa_chain = LLMChain(llm=llm, prompt=prompt)
|
| 49 |
+
return qa_chain
|
| 50 |
def ask(pregunta: str,retriever):
|
| 51 |
|
| 52 |
#Busqueda de documentos mediante el retriever
|