Spaces:
Running
Running
Update js/analysisModule.js
Browse files- js/analysisModule.js +22 -11
js/analysisModule.js
CHANGED
|
@@ -1,14 +1,18 @@
|
|
| 1 |
-
|
|
|
|
|
|
|
|
|
|
| 2 |
|
| 3 |
// Módulo de análisis médico con LLM configurado (llamadas front-end)
|
| 4 |
export async function analyzeMedical(text) {
|
| 5 |
if (!text) return '';
|
|
|
|
| 6 |
const cfg = JSON.parse(localStorage.getItem('iaConfig')) || {};
|
| 7 |
const provider = cfg.llm.provider;
|
| 8 |
-
|
| 9 |
// Obtener API key adecuada del proveedor
|
| 10 |
const apiKey = cfg.llm.apiKeys?.[provider] ?? cfg.llm.apiKey;
|
| 11 |
-
|
| 12 |
// Determinar endpoint según proveedor
|
| 13 |
let url;
|
| 14 |
if (provider === 'openai') {
|
|
@@ -18,15 +22,12 @@ export async function analyzeMedical(text) {
|
|
| 18 |
} else {
|
| 19 |
throw new Error('Proveedor no soportado');
|
| 20 |
}
|
|
|
|
| 21 |
const systemMessage = 'Eres un médico experto especializado en generar informes clínicos breves concisos y estructurados.';
|
| 22 |
-
const userPrompt = `Te daré la transcripción detallada de mi conversación con la paciente y tú escribe una descripción breve de la enfermedad actual y la exploración física de un paciente en contexto clínico, siguiendo estas características:\n
|
| 23 |
-
|
| 24 |
-
Exploración física:\n- Describe brevemente los hallazgos objetivos observados en la exploración.\n- Usa términos médicos precisos, sin juicios diagnósticos.\n
|
| 25 |
-
Tareas del modelo:\n- Responde de forma concreta en dos párrafos, sin títulos 'Enfermedad actual:' ni 'Exploración física:'.\n- El primero para la enfermedad actual.\n- El segundo para la exploración.\n
|
| 26 |
-
Transcripción: ${text}`;
|
| 27 |
let messages;
|
| 28 |
if (provider === 'openai') {
|
| 29 |
-
// Some OpenAI models don't support 'system' role
|
| 30 |
messages = [
|
| 31 |
{ role: 'user', content: `${systemMessage}\n\n${userPrompt}` }
|
| 32 |
];
|
|
@@ -36,21 +37,31 @@ Transcripción: ${text}`;
|
|
| 36 |
{ role: 'user', content: userPrompt }
|
| 37 |
];
|
| 38 |
}
|
|
|
|
| 39 |
// Enviar solicitud directa al proveedor
|
| 40 |
const headers = {
|
| 41 |
'Content-Type': 'application/json',
|
| 42 |
'Authorization': `Bearer ${apiKey}`
|
| 43 |
};
|
| 44 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 45 |
const res = await fetch(url, {
|
| 46 |
method: 'POST',
|
| 47 |
headers,
|
| 48 |
body: JSON.stringify(payload)
|
| 49 |
});
|
|
|
|
| 50 |
if (!res.ok) {
|
| 51 |
const err = await res.text();
|
| 52 |
throw new Error(`Error en análisis médico: ${res.status} ${err}`);
|
| 53 |
}
|
|
|
|
| 54 |
const data = await res.json();
|
| 55 |
return data.choices?.[0]?.message?.content || '';
|
| 56 |
-
}
|
|
|
|
| 1 |
+
// js/analysisModule.js
|
| 2 |
+
|
| 3 |
+
// Importa la función 'prepareLlmApiParams' del otro archivo.
|
| 4 |
+
import { prepareLlmApiParams } from './iaConfigModule.js';
|
| 5 |
|
| 6 |
// Módulo de análisis médico con LLM configurado (llamadas front-end)
|
| 7 |
export async function analyzeMedical(text) {
|
| 8 |
if (!text) return '';
|
| 9 |
+
|
| 10 |
const cfg = JSON.parse(localStorage.getItem('iaConfig')) || {};
|
| 11 |
const provider = cfg.llm.provider;
|
| 12 |
+
|
| 13 |
// Obtener API key adecuada del proveedor
|
| 14 |
const apiKey = cfg.llm.apiKeys?.[provider] ?? cfg.llm.apiKey;
|
| 15 |
+
|
| 16 |
// Determinar endpoint según proveedor
|
| 17 |
let url;
|
| 18 |
if (provider === 'openai') {
|
|
|
|
| 22 |
} else {
|
| 23 |
throw new Error('Proveedor no soportado');
|
| 24 |
}
|
| 25 |
+
|
| 26 |
const systemMessage = 'Eres un médico experto especializado en generar informes clínicos breves concisos y estructurados.';
|
| 27 |
+
const userPrompt = `Te daré la transcripción detallada de mi conversación con la paciente y tú escribe una descripción breve de la enfermedad actual y la exploración física de un paciente en contexto clínico, siguiendo estas características:\nEnfermedad actual:\n- Incluye la edad, el género y el motivo de consulta del paciente. (si no te doy algún dato, omite mencionarlo).\n- Detalla brevemente la evolución de síntomas y su progresión.\n- Describe brevemente los signos y antecedentes relevantes con lenguaje técnico comprensible.\nExploración física:\n- Describe brevemente los hallazgos objetivos observados en la exploración.\n- Usa términos médicos precisos, sin juicios diagnósticos.\nTareas del modelo:\n- Responde de forma concreta en dos párrafos, sin títulos 'Enfermedad actual:' ni 'Exploración física:'.\n- El primero para la enfermedad actual.\n- El segundo para la exploración.\nTranscripción: ${text}`;
|
| 28 |
+
|
|
|
|
|
|
|
|
|
|
| 29 |
let messages;
|
| 30 |
if (provider === 'openai') {
|
|
|
|
| 31 |
messages = [
|
| 32 |
{ role: 'user', content: `${systemMessage}\n\n${userPrompt}` }
|
| 33 |
];
|
|
|
|
| 37 |
{ role: 'user', content: userPrompt }
|
| 38 |
];
|
| 39 |
}
|
| 40 |
+
|
| 41 |
// Enviar solicitud directa al proveedor
|
| 42 |
const headers = {
|
| 43 |
'Content-Type': 'application/json',
|
| 44 |
'Authorization': `Bearer ${apiKey}`
|
| 45 |
};
|
| 46 |
+
|
| 47 |
+
// Se reemplaza la creación manual del payload.
|
| 48 |
+
// Creamos un objeto base solo con los mensajes.
|
| 49 |
+
const userPayload = { messages };
|
| 50 |
+
|
| 51 |
+
// Dejamos que la función inteligente prepare el resto (modelo, temperatura, etc.)
|
| 52 |
+
const payload = prepareLlmApiParams(userPayload);
|
| 53 |
+
|
| 54 |
const res = await fetch(url, {
|
| 55 |
method: 'POST',
|
| 56 |
headers,
|
| 57 |
body: JSON.stringify(payload)
|
| 58 |
});
|
| 59 |
+
|
| 60 |
if (!res.ok) {
|
| 61 |
const err = await res.text();
|
| 62 |
throw new Error(`Error en análisis médico: ${res.status} ${err}`);
|
| 63 |
}
|
| 64 |
+
|
| 65 |
const data = await res.json();
|
| 66 |
return data.choices?.[0]?.message?.content || '';
|
| 67 |
+
}
|