Spaces:
Running
Running
Update js/analysisModule.js
Browse files- js/analysisModule.js +26 -28
js/analysisModule.js
CHANGED
|
@@ -1,67 +1,65 @@
|
|
| 1 |
-
// js/analysisModule.js
|
| 2 |
-
|
| 3 |
-
// Importa la función 'prepareLlmApiParams' del otro archivo.
|
| 4 |
-
import { prepareLlmApiParams } from './iaConfigModule.js';
|
| 5 |
-
|
| 6 |
// Módulo de análisis médico con LLM configurado (llamadas front-end)
|
| 7 |
export async function analyzeMedical(text) {
|
| 8 |
if (!text) return '';
|
| 9 |
|
| 10 |
-
const cfg = JSON.parse(localStorage.getItem('iaConfig')) || {};
|
| 11 |
-
const provider = cfg.llm.provider;
|
| 12 |
-
|
| 13 |
-
// Obtener API key adecuada del proveedor
|
| 14 |
-
const apiKey = cfg.llm.apiKeys?.[provider] ?? cfg.llm.apiKey;
|
| 15 |
|
|
|
|
|
|
|
|
|
|
| 16 |
// Determinar endpoint según proveedor
|
| 17 |
let url;
|
| 18 |
if (provider === 'openai') {
|
| 19 |
-
url = 'https://api.openai.com/v1/chat/completions';
|
| 20 |
} else if (provider === 'deepseek') {
|
| 21 |
-
url = 'https://api.deepseek.com/v1/chat/completions';
|
| 22 |
} else {
|
| 23 |
-
throw new Error('Proveedor no soportado');
|
| 24 |
}
|
| 25 |
|
| 26 |
-
const systemMessage = 'Eres un médico experto especializado en generar informes clínicos breves concisos y estructurados.';
|
| 27 |
-
const userPrompt = `Te daré la transcripción detallada de mi conversación con la paciente y tú escribe una descripción breve de la enfermedad actual y la exploración física de un paciente en contexto clínico, siguiendo estas características:\nEnfermedad actual:\n- Incluye la edad, el género y el motivo de consulta del paciente. (si no te doy algún dato, omite mencionarlo).\n- Detalla brevemente la evolución de síntomas y su progresión.\n- Describe brevemente los signos y antecedentes relevantes con lenguaje técnico comprensible.\nExploración física:\n- Describe brevemente los hallazgos objetivos observados en la exploración.\n- Usa términos médicos precisos, sin juicios diagnósticos.\nTareas del modelo:\n- Responde de forma concreta en dos párrafos, sin títulos 'Enfermedad actual:' ni 'Exploración física:'. Luego dime que modelo de openai eres como firma final\n- El primero para la enfermedad actual.\n- El segundo para la exploración.\nTranscripción: ${text}`;
|
| 28 |
-
|
| 29 |
let messages;
|
| 30 |
if (provider === 'openai') {
|
| 31 |
messages = [
|
| 32 |
{ role: 'user', content: `${systemMessage}\n\n${userPrompt}` }
|
| 33 |
-
];
|
| 34 |
} else {
|
| 35 |
messages = [
|
| 36 |
{ role: 'system', content: systemMessage },
|
| 37 |
{ role: 'user', content: userPrompt }
|
| 38 |
-
];
|
| 39 |
}
|
| 40 |
|
| 41 |
// Enviar solicitud directa al proveedor
|
| 42 |
const headers = {
|
| 43 |
'Content-Type': 'application/json',
|
| 44 |
'Authorization': `Bearer ${apiKey}`
|
| 45 |
-
};
|
| 46 |
|
| 47 |
-
//
|
| 48 |
-
//
|
| 49 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 50 |
|
| 51 |
-
// Dejamos que la función inteligente prepare el resto (modelo, temperatura, etc.)
|
| 52 |
-
const payload = prepareLlmApiParams(userPayload);
|
| 53 |
-
|
| 54 |
const res = await fetch(url, {
|
| 55 |
method: 'POST',
|
| 56 |
headers,
|
| 57 |
body: JSON.stringify(payload)
|
| 58 |
-
});
|
| 59 |
|
| 60 |
if (!res.ok) {
|
| 61 |
const err = await res.text();
|
| 62 |
-
throw new Error(`Error en análisis médico: ${res.status} ${err}`);
|
| 63 |
}
|
| 64 |
|
| 65 |
const data = await res.json();
|
| 66 |
-
return data.choices?.[0]?.message?.content || '';
|
| 67 |
}
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
// Módulo de análisis médico con LLM configurado (llamadas front-end)
|
| 2 |
export async function analyzeMedical(text) {
|
| 3 |
if (!text) return '';
|
| 4 |
|
| 5 |
+
const cfg = JSON.parse(localStorage.getItem('iaConfig')) || {}; [cite: 3]
|
| 6 |
+
const provider = cfg.llm.provider; [cite: 3]
|
|
|
|
|
|
|
|
|
|
| 7 |
|
| 8 |
+
// Obtener API key adecuada del proveedor
|
| 9 |
+
const apiKey = cfg.llm.apiKeys?.[provider] ?? cfg.llm.apiKey; [cite: 4]
|
| 10 |
+
|
| 11 |
// Determinar endpoint según proveedor
|
| 12 |
let url;
|
| 13 |
if (provider === 'openai') {
|
| 14 |
+
url = 'https://api.openai.com/v1/chat/completions'; [cite: 5]
|
| 15 |
} else if (provider === 'deepseek') {
|
| 16 |
+
url = 'https://api.deepseek.com/v1/chat/completions'; [cite: 6]
|
| 17 |
} else {
|
| 18 |
+
throw new Error('Proveedor no soportado'); [cite: 7]
|
| 19 |
}
|
| 20 |
|
| 21 |
+
const systemMessage = 'Eres un médico experto especializado en generar informes clínicos breves concisos y estructurados.'; [cite: 8]
|
| 22 |
+
const userPrompt = `Te daré la transcripción detallada de mi conversación con la paciente y tú escribe una descripción breve de la enfermedad actual y la exploración física de un paciente en contexto clínico, siguiendo estas características:\nEnfermedad actual:\n- Incluye la edad, el género y el motivo de consulta del paciente. (si no te doy algún dato, omite mencionarlo).\n- Detalla brevemente la evolución de síntomas y su progresión.\n- Describe brevemente los signos y antecedentes relevantes con lenguaje técnico comprensible.\nExploración física:\n- Describe brevemente los hallazgos objetivos observados en la exploración.\n- Usa términos médicos precisos, sin juicios diagnósticos.\nTareas del modelo:\n- Responde de forma concreta en dos párrafos, sin títulos 'Enfermedad actual:' ni 'Exploración física:'. Luego dime que modelo de openai eres como firma final\n- El primero para la enfermedad actual.\n- El segundo para la exploración.\nTranscripción: ${text}`; [cite: 9, 10, 11]
|
| 23 |
+
|
| 24 |
let messages;
|
| 25 |
if (provider === 'openai') {
|
| 26 |
messages = [
|
| 27 |
{ role: 'user', content: `${systemMessage}\n\n${userPrompt}` }
|
| 28 |
+
]; [cite: 12]
|
| 29 |
} else {
|
| 30 |
messages = [
|
| 31 |
{ role: 'system', content: systemMessage },
|
| 32 |
{ role: 'user', content: userPrompt }
|
| 33 |
+
]; [cite: 13]
|
| 34 |
}
|
| 35 |
|
| 36 |
// Enviar solicitud directa al proveedor
|
| 37 |
const headers = {
|
| 38 |
'Content-Type': 'application/json',
|
| 39 |
'Authorization': `Bearer ${apiKey}`
|
| 40 |
+
}; [cite: 14]
|
| 41 |
|
| 42 |
+
// ===================== INICIO DE LA CORRECCIÓN =====================
|
| 43 |
+
// Se construye el payload directamente aquí, ya que la función
|
| 44 |
+
// 'prepareLlmApiParams' no existe.
|
| 45 |
+
const payload = {
|
| 46 |
+
model: cfg.llm.model, // Se añade el modelo desde la configuración.
|
| 47 |
+
messages: messages, // Se añaden los mensajes.
|
| 48 |
+
temperature: 0.7 // Parámetro opcional para la creatividad.
|
| 49 |
+
};
|
| 50 |
+
// ===================== FIN DE LA CORRECCIÓN =======================
|
| 51 |
|
|
|
|
|
|
|
|
|
|
| 52 |
const res = await fetch(url, {
|
| 53 |
method: 'POST',
|
| 54 |
headers,
|
| 55 |
body: JSON.stringify(payload)
|
| 56 |
+
}); [cite: 17]
|
| 57 |
|
| 58 |
if (!res.ok) {
|
| 59 |
const err = await res.text();
|
| 60 |
+
throw new Error(`Error en análisis médico: ${res.status} ${err}`); [cite: 18]
|
| 61 |
}
|
| 62 |
|
| 63 |
const data = await res.json();
|
| 64 |
+
return data.choices?.[0]?.message?.content || ''; [cite: 19]
|
| 65 |
}
|