Spaces:
Sleeping
Sleeping
Update chat.py
Browse files
chat.py
CHANGED
|
@@ -325,8 +325,8 @@ def generate_chain_response(user_input, api_key):
|
|
| 325 |
# Step 1: Mistral Sabaによる入力分析
|
| 326 |
mistral_system_prompt = load_system_prompt(MODELS["mistral_saba"])
|
| 327 |
mistral_prompt = f"""
|
| 328 |
-
以下
|
| 329 |
-
|
| 330 |
|
| 331 |
ユーザー入力: {user_input}
|
| 332 |
"""
|
|
@@ -337,8 +337,8 @@ def generate_chain_response(user_input, api_key):
|
|
| 337 |
{"role": "system", "content": mistral_system_prompt},
|
| 338 |
{"role": "user", "content": mistral_prompt}
|
| 339 |
],
|
| 340 |
-
temperature=
|
| 341 |
-
max_tokens=
|
| 342 |
)
|
| 343 |
|
| 344 |
mistral_analysis = mistral_response.choices[0].message.content
|
|
|
|
| 325 |
# Step 1: Mistral Sabaによる入力分析
|
| 326 |
mistral_system_prompt = load_system_prompt(MODELS["mistral_saba"])
|
| 327 |
mistral_prompt = f"""
|
| 328 |
+
分析以下用户输入。 提取用户问题或请求的性质、关键词和技术问题、
|
| 329 |
+
详细考虑应采用何种方法来回答这些问题。
|
| 330 |
|
| 331 |
ユーザー入力: {user_input}
|
| 332 |
"""
|
|
|
|
| 337 |
{"role": "system", "content": mistral_system_prompt},
|
| 338 |
{"role": "user", "content": mistral_prompt}
|
| 339 |
],
|
| 340 |
+
temperature=0.6,
|
| 341 |
+
max_tokens=3000
|
| 342 |
)
|
| 343 |
|
| 344 |
mistral_analysis = mistral_response.choices[0].message.content
|