Spaces:
Sleeping
Sleeping
Update server.js
Browse files
server.js
CHANGED
|
@@ -42,9 +42,12 @@ app.post('/pl', async (req, res) => {
|
|
| 42 |
return res.status(400).json({ error: "", title: "Ошибка", text: "Нет запроса!", okb: "Ок", oklink: "", cancelable: "true" }); // Не удалось принять данные
|
| 43 |
}
|
| 44 |
|
| 45 |
-
|
|
|
|
|
|
|
|
|
|
| 46 |
const response = await axios.post('https://openai-gemini-iota.vercel.app/v1/chat/completions', {
|
| 47 |
-
messages:
|
| 48 |
max_tokens: 4000,
|
| 49 |
temperature: 0.3,
|
| 50 |
model: "gemini-1.5-pro-002",
|
|
|
|
| 42 |
return res.status(400).json({ error: "", title: "Ошибка", text: "Нет запроса!", okb: "Ок", oklink: "", cancelable: "true" }); // Не удалось принять данные
|
| 43 |
}
|
| 44 |
|
| 45 |
+
try {
|
| 46 |
+
const systemMessage = {'role': 'system', 'content': `Доктор ${chatid} ${start}. Отвечай на языке: ${lang}`};
|
| 47 |
+
const allMessages = [systemMessage].concat(req.body.messages); // Объединяем сообщения
|
| 48 |
+
|
| 49 |
const response = await axios.post('https://openai-gemini-iota.vercel.app/v1/chat/completions', {
|
| 50 |
+
messages: allMessages, // Используем объединенный массив сообщений
|
| 51 |
max_tokens: 4000,
|
| 52 |
temperature: 0.3,
|
| 53 |
model: "gemini-1.5-pro-002",
|