Update server.js
Browse files
server.js
CHANGED
|
@@ -46,7 +46,7 @@ app.post('/pl', async (req, res) => {
|
|
| 46 |
const response = await axios.post('https://text.pollinations.ai/openai', {
|
| 47 |
messages: [{'role': 'system', 'content': start}, {'role': 'user', 'content': prompt}],
|
| 48 |
max_tokens: 1200,
|
| 49 |
-
temperature: 0.
|
| 50 |
// model: "gemini-1.5-pro-001",
|
| 51 |
}, {
|
| 52 |
headers: {
|
|
@@ -80,7 +80,7 @@ app.post('/cre', async (req, res) => {
|
|
| 80 |
const response = await axios.post('https://text.pollinations.ai/openai', {
|
| 81 |
messages: [{'role': 'system', 'content': start}, {'role': 'system', 'content': 'И ОБЯЗАТЕЛЬНО, всегда в конце "text" проси обновить приложение, уведомляя о том, что скоро в жтой версии перестанешь отвечать!'}, {'role': 'user', 'content': prompt}],
|
| 82 |
max_tokens: 1200,
|
| 83 |
-
temperature: 0.
|
| 84 |
// model: "gemini-1.5-pro-001",
|
| 85 |
}, {
|
| 86 |
headers: {
|
|
@@ -114,7 +114,7 @@ app.post('/crebeta', async (req, res) => {
|
|
| 114 |
const response = await axios.post('https://text.pollinations.ai/openai', {
|
| 115 |
messages: [{'role': 'system', 'content': startconnect}, {'role': 'user', 'content': prompt}],
|
| 116 |
max_tokens: 1200,
|
| 117 |
-
temperature: 0.
|
| 118 |
// model: "gemini-1.5-pro-001",
|
| 119 |
}, {
|
| 120 |
headers: {
|
|
|
|
| 46 |
const response = await axios.post('https://text.pollinations.ai/openai', {
|
| 47 |
messages: [{'role': 'system', 'content': start}, {'role': 'user', 'content': prompt}],
|
| 48 |
max_tokens: 1200,
|
| 49 |
+
temperature: 0.25,
|
| 50 |
// model: "gemini-1.5-pro-001",
|
| 51 |
}, {
|
| 52 |
headers: {
|
|
|
|
| 80 |
const response = await axios.post('https://text.pollinations.ai/openai', {
|
| 81 |
messages: [{'role': 'system', 'content': start}, {'role': 'system', 'content': 'И ОБЯЗАТЕЛЬНО, всегда в конце "text" проси обновить приложение, уведомляя о том, что скоро в жтой версии перестанешь отвечать!'}, {'role': 'user', 'content': prompt}],
|
| 82 |
max_tokens: 1200,
|
| 83 |
+
temperature: 0.25,
|
| 84 |
// model: "gemini-1.5-pro-001",
|
| 85 |
}, {
|
| 86 |
headers: {
|
|
|
|
| 114 |
const response = await axios.post('https://text.pollinations.ai/openai', {
|
| 115 |
messages: [{'role': 'system', 'content': startconnect}, {'role': 'user', 'content': prompt}],
|
| 116 |
max_tokens: 1200,
|
| 117 |
+
temperature: 0.25,
|
| 118 |
// model: "gemini-1.5-pro-001",
|
| 119 |
}, {
|
| 120 |
headers: {
|