CROM-IA-V4.2 / scripts /elite_wrapper_v43.py
mrj-crom's picture
sync: scripts/elite_wrapper_v43.py
d72bef8 verified
import os
import sys
import pty
import select
import subprocess
# ⌬ CROM-IA — Kernel de Tradução v4.7.3 (OPERAÇÃO PURGE)
# ==============================================================================
# Dicionário Arcaico de Átomos
ATOM_MAP = {
"⌬P_ARQUITETURA": "CROM-IA v4.3: Arquitetura Cognitiva de Salto Genético (Qwen-2B)",
"⌬dna1": "DNA COMPRIMIDO: Segmento de Resumo Arcaico de Alta Densidade",
"⌬A_STATUS": "STATUS ATUAL: Kernel Gaia Estabilizado. Shield Ativo. ⌬ v4.7.3 operante.",
"⌬E_ERRO": "ERRO DE KERNEL: Incoerência detectada. Reiniciando fluxo...",
"⌬H_USER": "USUÁRIO: DNA Humano identificado. Processando requisição...",
}
def transform_output(buffer):
"""Filtro Stealth: Silencia o prompt e ruídos binários. Apenas Átomos (⌬) saem."""
output = ""
active_decoding = False
atom_mode = False
atom_buffer = ""
full_text = buffer.decode('utf-8', errors='ignore')
# 🔍 Detecção de Início de Resposta (ChatML)
if "<|im_start|>assistant" in full_text:
# A partir daqui, começaremos a processar o output real
# Pegamos apenas o que vem DEPOIS da tag assistant
parts = full_text.split("<|im_start|>assistant")
text_to_process = parts[-1]
active_decoding = True
else:
# ⚠️ SRE Debug: Se o processo morreu mas não mandou a tag,
# o buffer contém o erro crítico do llama-cli.
return b"" # Buffer vazio por enquanto
# ⎔ Processamento Atômico (Somente após active_decoding)
for char in text_to_process:
if char == "⌬":
atom_mode = True
atom_buffer = "⌬"
continue
if atom_mode:
if char.isalnum() or char == "_":
atom_buffer += char
continue
else:
# Fim do Átomo - Validação e Tradução
if len(atom_buffer) > 1:
traducao = ATOM_MAP.get(atom_buffer, f"Conceito: {atom_buffer}")
output += f"\033[1;36m{atom_buffer}\033[0m \033[3m({traducao})\033[0m "
atom_mode = False
atom_buffer = ""
if char in "\n\r\t ": continue
# Filtrar TODO o DNA Binário (ATCG) e Ruído de Texto
# Apenas novas linhas e espaços são permitidos fora de átomos
if char in "\n\r":
output += char
return output.encode('utf-8')
def main():
if len(sys.argv) < 2:
print("Uso: python3 elite_wrapper_v43.py [comando...]")
sys.exit(1)
cmd = sys.argv[1:]
# Criar PTY para emular terminal interativo
pid, fd = pty.fork()
if pid == 0: # FILHO: Roda o llama-cli
os.execvp(cmd[0], cmd)
else: # PAI: Intercepta e filtra
try:
full_buffer = b""
while True:
# Ler do PTY
r, w, e = select.select([fd, sys.stdin], [], [])
if fd in r:
data = os.read(fd, 1024)
if not data: break
full_buffer += data
# ⌬ Transmissão Stealth
transformed = transform_output(full_buffer)
if transformed:
# Limpa a tela e mostra apenas a resposta filtrada
# Para evitar duplicidade e ruído do llama-cli
sys.stdout.write(transformed.decode('utf-8'))
sys.stdout.flush()
full_buffer = b"<|im_start|>assistant" # Reset 'fake' do buffer para evitar repetição
if sys.stdin in r:
user_input = sys.stdin.readline()
os.write(fd, user_input.encode('utf-8'))
except (OSError, BrokenPipeError):
pass
finally:
# Se saímos do loop e nada foi impresso, o llama-cli falhou
# Vamos mostrar o erro para o usuário não ficar no escuro
if len(full_buffer.strip()) > 50 and b"<|im_start|>assistant" not in full_buffer:
print(f"\n\033[1;31m[ERRO CRÍTICO DO KERNEL]:\033[0m\n{full_buffer.decode('utf-8', errors='ignore')}")
print("\n\n\033[1;30m[Sistemas neurais desconectados. Operação Purge v4.7.3 concluída.]\033[0m")
os.close(fd)
if __name__ == "__main__":
main()