Spaces:
Running
Running
Update js/analysisModule.js
Browse files- js/analysisModule.js +64 -38
js/analysisModule.js
CHANGED
|
@@ -1,65 +1,91 @@
|
|
| 1 |
-
//
|
|
|
|
| 2 |
export async function analyzeMedical(text) {
|
| 3 |
-
if (!text)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 4 |
|
| 5 |
-
const
|
| 6 |
-
const
|
| 7 |
-
|
| 8 |
-
|
| 9 |
-
|
|
|
|
|
|
|
| 10 |
|
| 11 |
// Determinar endpoint según proveedor
|
| 12 |
let url;
|
| 13 |
if (provider === 'openai') {
|
| 14 |
-
url = 'https://api.openai.com/v1/chat/completions';
|
| 15 |
} else if (provider === 'deepseek') {
|
| 16 |
-
url = 'https://api.deepseek.com/v1/chat/completions';
|
| 17 |
} else {
|
| 18 |
-
throw new Error(
|
| 19 |
}
|
| 20 |
|
| 21 |
-
const systemMessage = 'Eres un médico experto especializado en generar informes clínicos breves concisos y estructurados.';
|
| 22 |
-
const userPrompt = `Te daré la transcripción detallada de mi conversación con la paciente y tú escribe una descripción breve de la enfermedad actual y la exploración física de un paciente en contexto clínico, siguiendo estas características:\nEnfermedad actual:\n- Incluye la edad, el género y el motivo de consulta del paciente. (si no te doy algún dato, omite mencionarlo).\n- Detalla brevemente la evolución de síntomas y su progresión.\n- Describe brevemente los signos y antecedentes relevantes con lenguaje técnico comprensible.\nExploración física:\n- Describe brevemente los hallazgos objetivos observados en la exploración.\n- Usa términos médicos precisos, sin juicios diagnósticos.\nTareas del modelo:\n- Responde de forma concreta en dos párrafos, sin títulos 'Enfermedad actual:' ni 'Exploración física:'. Luego dime que modelo de openai eres como firma final\n- El primero para la enfermedad actual.\n- El segundo para la exploración.\nTranscripción: ${text}`;
|
| 23 |
|
| 24 |
let messages;
|
| 25 |
if (provider === 'openai') {
|
| 26 |
-
|
| 27 |
-
|
| 28 |
-
]; [cite: 12]
|
| 29 |
} else {
|
|
|
|
| 30 |
messages = [
|
| 31 |
{ role: 'system', content: systemMessage },
|
| 32 |
{ role: 'user', content: userPrompt }
|
| 33 |
-
];
|
| 34 |
}
|
| 35 |
|
| 36 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 37 |
const headers = {
|
| 38 |
'Content-Type': 'application/json',
|
| 39 |
'Authorization': `Bearer ${apiKey}`
|
| 40 |
-
}; [cite: 14]
|
| 41 |
-
|
| 42 |
-
// ===================== INICIO DE LA CORRECCIÓN =====================
|
| 43 |
-
// Se construye el payload directamente aquí, ya que la función
|
| 44 |
-
// 'prepareLlmApiParams' no existe.
|
| 45 |
-
const payload = {
|
| 46 |
-
model: cfg.llm.model, // Se añade el modelo desde la configuración.
|
| 47 |
-
messages: messages, // Se añaden los mensajes.
|
| 48 |
-
temperature: 0.7 // Parámetro opcional para la creatividad.
|
| 49 |
};
|
| 50 |
-
// ===================== FIN DE LA CORRECCIÓN =======================
|
| 51 |
|
| 52 |
-
|
| 53 |
-
|
| 54 |
-
|
| 55 |
-
|
| 56 |
-
|
|
|
|
| 57 |
|
| 58 |
-
|
| 59 |
-
|
| 60 |
-
|
| 61 |
-
|
|
|
|
| 62 |
|
| 63 |
-
|
| 64 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 65 |
}
|
|
|
|
| 1 |
+
// js/analysisModule.js (Revisado y corregido)
|
| 2 |
+
|
| 3 |
export async function analyzeMedical(text) {
|
| 4 |
+
if (!text || text.trim() === '') {
|
| 5 |
+
console.log("No text provided to analyze.");
|
| 6 |
+
return '';
|
| 7 |
+
}
|
| 8 |
+
|
| 9 |
+
// Cargar configuración de forma segura
|
| 10 |
+
const configString = localStorage.getItem('iaConfig');
|
| 11 |
+
if (!configString) {
|
| 12 |
+
throw new Error('Configuración IA no encontrada en localStorage. Por favor, configure los proveedores primero.');
|
| 13 |
+
}
|
| 14 |
+
|
| 15 |
+
let cfg;
|
| 16 |
+
try {
|
| 17 |
+
cfg = JSON.parse(configString);
|
| 18 |
+
} catch (e) {
|
| 19 |
+
throw new Error('Error al parsear la configuración IA desde localStorage.');
|
| 20 |
+
}
|
| 21 |
+
|
| 22 |
+
// Validar que la configuración necesaria existe para evitar errores
|
| 23 |
+
if (!cfg || !cfg.llm || !cfg.llm.provider || !cfg.llm.model || !cfg.llm.apiKeys) {
|
| 24 |
+
throw new Error('La configuración del LLM está incompleta o corrupta. Por favor, guarde la configuración de nuevo.');
|
| 25 |
+
}
|
| 26 |
|
| 27 |
+
const provider = cfg.llm.provider;
|
| 28 |
+
const model = cfg.llm.model;
|
| 29 |
+
const apiKey = cfg.llm.apiKeys[provider];
|
| 30 |
+
|
| 31 |
+
if (!apiKey) {
|
| 32 |
+
throw new Error(`No se encontró la API Key para el proveedor LLM seleccionado: ${provider}.`);
|
| 33 |
+
}
|
| 34 |
|
| 35 |
// Determinar endpoint según proveedor
|
| 36 |
let url;
|
| 37 |
if (provider === 'openai') {
|
| 38 |
+
url = 'https://api.openai.com/v1/chat/completions';
|
| 39 |
} else if (provider === 'deepseek') {
|
| 40 |
+
url = 'https://api.deepseek.com/v1/chat/completions';
|
| 41 |
} else {
|
| 42 |
+
throw new Error(`Proveedor LLM no soportado: ${provider}`);
|
| 43 |
}
|
| 44 |
|
| 45 |
+
const systemMessage = 'Eres un médico experto especializado en generar informes clínicos breves concisos y estructurados.';
|
| 46 |
+
const userPrompt = `Te daré la transcripción detallada de mi conversación con la paciente y tú escribe una descripción breve de la enfermedad actual y la exploración física de un paciente en contexto clínico, siguiendo estas características:\nEnfermedad actual:\n- Incluye la edad, el género y el motivo de consulta del paciente. (si no te doy algún dato, omite mencionarlo).\n- Detalla brevemente la evolución de síntomas y su progresión.\n- Describe brevemente los signos y antecedentes relevantes con lenguaje técnico comprensible.\nExploración física:\n- Describe brevemente los hallazgos objetivos observados en la exploración.\n- Usa términos médicos precisos, sin juicios diagnósticos.\nTareas del modelo:\n- Responde de forma concreta en dos párrafos, sin títulos 'Enfermedad actual:' ni 'Exploración física:'. Luego dime que modelo de openai eres como firma final\n- El primero para la enfermedad actual.\n- El segundo para la exploración.\nTranscripción: ${text}`;
|
| 47 |
|
| 48 |
let messages;
|
| 49 |
if (provider === 'openai') {
|
| 50 |
+
// Para OpenAI, es común enviar el system prompt como parte del primer mensaje de usuario
|
| 51 |
+
messages = [{ role: 'user', content: `${systemMessage}\n\n${userPrompt}` }];
|
|
|
|
| 52 |
} else {
|
| 53 |
+
// Para otros como DeepSeek, el rol 'system' está bien soportado
|
| 54 |
messages = [
|
| 55 |
{ role: 'system', content: systemMessage },
|
| 56 |
{ role: 'user', content: userPrompt }
|
| 57 |
+
];
|
| 58 |
}
|
| 59 |
|
| 60 |
+
const payload = {
|
| 61 |
+
model: model,
|
| 62 |
+
messages: messages,
|
| 63 |
+
temperature: 0.7
|
| 64 |
+
};
|
| 65 |
+
|
| 66 |
const headers = {
|
| 67 |
'Content-Type': 'application/json',
|
| 68 |
'Authorization': `Bearer ${apiKey}`
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 69 |
};
|
|
|
|
| 70 |
|
| 71 |
+
try {
|
| 72 |
+
const res = await fetch(url, {
|
| 73 |
+
method: 'POST',
|
| 74 |
+
headers: headers,
|
| 75 |
+
body: JSON.stringify(payload)
|
| 76 |
+
});
|
| 77 |
|
| 78 |
+
if (!res.ok) {
|
| 79 |
+
const errorBody = await res.text();
|
| 80 |
+
console.error("Error response from API:", errorBody);
|
| 81 |
+
throw new Error(`Error en la llamada a la API de análisis: ${res.status} - ${res.statusText}`);
|
| 82 |
+
}
|
| 83 |
|
| 84 |
+
const data = await res.json();
|
| 85 |
+
return data.choices?.[0]?.message?.content || '';
|
| 86 |
+
|
| 87 |
+
} catch (error) {
|
| 88 |
+
console.error("Fallo al ejecutar la solicitud de análisis:", error);
|
| 89 |
+
throw error; // Re-lanza el error para que el código que llama pueda manejarlo
|
| 90 |
+
}
|
| 91 |
}
|