Update main.py
Browse files
main.py
CHANGED
|
@@ -49,7 +49,7 @@ async def chat_profile():
|
|
| 49 |
]
|
| 50 |
|
| 51 |
@cl.on_chat_start
|
| 52 |
-
async def
|
| 53 |
await cl.Message(f"> REVIEWSTREAM").send()
|
| 54 |
await cl.Message(f"Nous avons le plaisir de vous accueillir dans l'application de recherche et d'analyse des publications.").send()
|
| 55 |
listPrompts_name = f"Liste des revues de recherche"
|
|
@@ -73,41 +73,7 @@ async def start():
|
|
| 73 |
]
|
| 74 |
).send()
|
| 75 |
|
| 76 |
-
cl.user_session.set("memory", ConversationBufferMemory(return_messages=True))
|
| 77 |
-
memory = cl.user_session.get("memory")
|
| 78 |
-
template = """<s>[INST] Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant.
|
| 79 |
-
|
| 80 |
-
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous à partir du contexte ci-dessous. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes.
|
| 81 |
-
{context}
|
| 82 |
-
{question} [/INST] </s>
|
| 83 |
-
"""
|
| 84 |
-
|
| 85 |
-
os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
|
| 86 |
-
repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
|
| 87 |
-
|
| 88 |
-
model = HuggingFaceEndpoint(
|
| 89 |
-
repo_id=repo_id, max_new_tokens=8000, temperature=1.0, task="text2text-generation", streaming=True
|
| 90 |
-
)
|
| 91 |
|
| 92 |
-
prompt = ChatPromptTemplate.from_messages(
|
| 93 |
-
[
|
| 94 |
-
(
|
| 95 |
-
"system",
|
| 96 |
-
f"Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie. En fonction des informations suivantes et du contexte suivant seulement et strictement.",
|
| 97 |
-
),
|
| 98 |
-
MessagesPlaceholder(variable_name="history"),
|
| 99 |
-
("human", "Contexte : {context}, réponds à la question suivante de la manière la plus pertinente, la plus exhaustive et la plus détaillée possible. {question}."),
|
| 100 |
-
]
|
| 101 |
-
)
|
| 102 |
-
runnable = (
|
| 103 |
-
RunnablePassthrough.assign(
|
| 104 |
-
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
|
| 105 |
-
)
|
| 106 |
-
| prompt
|
| 107 |
-
| model
|
| 108 |
-
)
|
| 109 |
-
cl.user_session.set("runnable", runnable)
|
| 110 |
-
return runnable
|
| 111 |
|
| 112 |
@cl.on_message
|
| 113 |
async def main(message: cl.Message):
|
|
|
|
| 49 |
]
|
| 50 |
|
| 51 |
@cl.on_chat_start
|
| 52 |
+
async def on_chat_start():
|
| 53 |
await cl.Message(f"> REVIEWSTREAM").send()
|
| 54 |
await cl.Message(f"Nous avons le plaisir de vous accueillir dans l'application de recherche et d'analyse des publications.").send()
|
| 55 |
listPrompts_name = f"Liste des revues de recherche"
|
|
|
|
| 73 |
]
|
| 74 |
).send()
|
| 75 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 76 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 77 |
|
| 78 |
@cl.on_message
|
| 79 |
async def main(message: cl.Message):
|