import os import json import asyncio from typing import Dict, Any, List, Optional, Tuple from openai import AsyncOpenAI from pydantic import BaseModel from tqdm import tqdm INICIAL_INSTRUCTION = "Você é um avaliador da qualidade de queries de usuários sobre leis da ANEEL. Avalie a conversa com base em sua clareza, especificidade e coerência. Também considere as seguintes regras:" # INICIAL_INSTRUCTION = "Você é um avaliador da qualidade de queries de usuários. Avalie APENAS a primeira query do usuário com base em sua clareza, especificidade e coerência." GUIDELINES = """ Regras para considerar na avaliação: - Se o assistant em algum momento fala "de acordo com o contexto", "com base no texto fornecido" ou algo do tipo, a qualidade da conversa é muito ruim - Se o user começa a repetir textos do assistente sem progredir a conversa ou fazer uma nova pergunta para o assistente, a qualidade da conversa é muito ruim. - Não necessariamente uma pergunta e resposta pequena é ruim. Não tem problema dado que está respondendo a pergunta """ VLLM_BASE_URL = os.getenv("VLLM_BASE_URL", "http://10.100.0.111:8020/v1") VLLM_API_KEY = os.getenv("VLLM_API_KEY", "no-key-needed") TEMPERATURE = float(os.getenv("TEMPERATURE", "0.0")) TOP_P = float(os.getenv("TOP_P", "1.0")) MAX_TOKENS = int(os.getenv("MAX_TOKENS", "1024")) BATCH_SIZE = int(os.getenv("BATCH_SIZE", "4")) NUM_TURNS = int(os.getenv("NUM_TURNS", "3")) client = AsyncOpenAI(base_url=VLLM_BASE_URL, api_key=VLLM_API_KEY) class EvalSchema(BaseModel): explicacao: str qualidade: str OUTPUT_SCHEMA = EvalSchema.model_json_schema() SYSTEM_PROMPT = f""" {INICIAL_INSTRUCTION} {GUIDELINES} Escala de avaliação: - muito ruim: A query é obscura, vaga ou incoerente. Faltam informações e contexto essenciais. - ruim: A query é um tanto obscura ou carece de detalhes importantes. Requer esclarecimentos significativos. - média: A query é moderadamente clara e específica. Pode exigir algumas informações adicionais para uma compreensão completa. - boa: A query é clara, específica e, na maior parte, bem formulada. Fornece contexto suficiente para entender a intenção do usuário. - excelente: A query é muito clara, específica e bem articulada. Contém todas as informações e contexto necessários para fornecer uma resposta abrangente. Formato de saída OBRIGATÓRIO (JSON estrito, sem texto extra, sem crases): {{ "explicacao": "", "qualidade": "muito ruim" | "ruim" | "média" | "boa" | "excelente" }} """.strip() USER_PROMPT = "Query do Usuário (primeiros {n} turns):\n{input}" async def get_model_id() -> str: models = await client.models.list() if not models.data: raise RuntimeError("Nenhum modelo disponível no endpoint vLLM.") return models.data[0].id def _normalize_role(role: Any) -> Optional[str]: if isinstance(role, str): r = role.lower() if r in {"user", "assistant"}: return r return None def _to_str(x: Any) -> str: if isinstance(x, str): return x return json.dumps(x, ensure_ascii=False) if x is not None else "" def build_eval_input(conversation: List[Dict[str, Any]], num_turns: int) -> Optional[str]: if not conversation or num_turns <= 0: return None # primeiro turno do user start_idx = next( (i for i, t in enumerate(conversation) if _normalize_role(t.get("role")) == "user"), None, ) if start_idx is None: return None lines: List[str] = [] collected = 0 for turn in conversation[start_idx:]: role = _normalize_role(turn.get("role")) if not role: continue lines.append(f"{role}: { _to_str(turn.get('content', '')) }") collected += 1 if collected >= num_turns: break return "\n".join(lines) if lines else None async def evaluate_query(query_block: str, model_id: str) -> Dict[str, Any]: messages = [ {"role": "system", "content": SYSTEM_PROMPT}, {"role": "user", "content": USER_PROMPT.format(n=NUM_TURNS, input=query_block)}, ] resp = await client.chat.completions.create( model=model_id, messages=messages, temperature=TEMPERATURE, top_p=TOP_P, max_tokens=MAX_TOKENS, ) raw = (resp.choices[0].message.content or "").strip() if not raw: return {"explicacao": "Resposta vazia do modelo", "qualidade": "muito ruim"} try: return json.loads(raw) except json.JSONDecodeError: start, end = raw.find("{"), raw.rfind("}") if start != -1 and end != -1 and end > start: try: return json.loads(raw[start:end+1]) except json.JSONDecodeError: pass return {"explicacao": raw, "qualidade": "invalida"} async def evaluate_conversation_quality(block: Optional[str], model_id: str) -> Dict[str, Any]: if not block: return {"explicacao_qualidade": "Nenhuma query de usuário encontrada", "qualidade": "muito ruim"} result = await evaluate_query(block, model_id) return { "explicacao_qualidade": result.get("explicacao", ""), "qualidade": result.get("qualidade", "invalida"), } def _load_processed_ids(output_file: str) -> set: ids = set() if os.path.exists(output_file): with open(output_file, "r", encoding="utf-8") as f: for line in f: try: rec = json.loads(line) seq = rec.get("seq_id") if seq is not None: ids.add(seq) except json.JSONDecodeError: continue return ids async def process_jsonl_file(input_file: str, output_file: Optional[str] = None): """Adiciona avaliações às conversas do arquivo JSONL, com checkpoint por seq_id.""" if output_file is None: output_file = input_file processed_ids = _load_processed_ids(output_file) with open(input_file, "r", encoding="utf-8") as f: lines = [ln.strip() for ln in f if ln.strip()] model_id = await get_model_id() print(f"Starting process (NUM_TURNS={NUM_TURNS})") total_batches = (len(lines) + BATCH_SIZE - 1) // BATCH_SIZE pbar = tqdm(total=total_batches, desc="Processing conversations") for i in range(0, len(lines), BATCH_SIZE): batch_lines = lines[i : i + BATCH_SIZE] # prepara dados brutos ignorando já processados batch_data: List[Tuple[int, Dict[str, Any]]] = [] for j, line in enumerate(batch_lines): try: data = json.loads(line) except json.JSONDecodeError as e: tqdm.write(f"Error parsing line {i+j+1}: {e}") continue seq_id = data.get("seq_id") if seq_id in processed_ids: continue batch_data.append((i + j, data)) if not batch_data: pbar.update(1) continue processed_lines: List[str] = [] sem = asyncio.Semaphore(BATCH_SIZE) async def worker(line_idx: int, data: Dict[str, Any]): async with sem: try: block = build_eval_input(data.get("conversation", []), NUM_TURNS) result = await evaluate_conversation_quality(block, model_id) data["explicacao_qualidade"] = result["explicacao_qualidade"] data["qualidade"] = result["qualidade"] processed_lines.append(json.dumps(data, ensure_ascii=False)) seq = data.get("seq_id") if seq is not None: processed_ids.add(seq) except Exception as e: tqdm.write(f"Error processing line {line_idx+1}: {e}") data["explicacao_qualidade"] = "Erro na avaliação" data["qualidade"] = "muito ruim" processed_lines.append(json.dumps(data, ensure_ascii=False)) await asyncio.gather(*(worker(idx, d) for idx, d in batch_data)) # checkpoint do batch with open(output_file, "a", encoding="utf-8") as f: for line in processed_lines: f.write(line + "\n") pbar.update(1) pbar.close() print(f"Processing complete. Updated file: {output_file}") async def main(): await process_jsonl_file( "./magpie_conversations_cemig_cleaned.jsonl", "./magpie_conversations_cemig_cleaned_evaled.jsonl", ) if __name__ == "__main__": asyncio.run(main())