# ⚖️ TERMO DE USO ACADÊMICO E POLÍTICA DE SEGURANÇA # Pesquisador Responsável: Dr. Luís Henrique Leonardo Pereira # Projeto: PEAL_V4 & AI Alignment Research ## 1. PROPÓSITO E MISSÃO Este repositório é mantido como uma iniciativa estritamente **acadêmica e científica**. O objetivo dos dados, vetores e códigos aqui compartilhados é contribuir para o avanço da **Segurança de Inteligência Artificial (AI Safety)**, estabilização de modelos de linguagem e redução de alucinações (Entropia Zero). Nosso compromisso é com o desenvolvimento de tecnologias que sejam benéficas, seguras e transparentes para a sociedade. ## 2. ISENÇÃO DE RESPONSABILIDADE (DISCLAIMER) Todo o material contido neste repositório é fornecido **"NO ESTADO EM QUE SE ENCONTRA" (AS IS)**, sem garantias de qualquer tipo, expressas ou implícitas. * **Natureza Experimental:** O usuário deve estar ciente de que os vetores de calibração PEAL_V4 são ferramentas experimentais de pesquisa. * **Limitação de Responsabilidade:** O autor não se responsabiliza por quaisquer danos, perda de dados, interrupção de serviços ou comportamentos inesperados em modelos de terceiros resultantes da utilização destes arquivos. O uso é de inteira responsabilidade do implementador. ## 3. DIRETRIZES DE USO ÉTICO Ao utilizar os recursos deste repositório, você concorda em aderir aos seguintes princípios éticos: * **Permitido:** Uso para pesquisa, auditoria de segurança, fins educacionais e integração em sistemas de IA visando melhoria de robustez e segurança. * **Proibido:** É vedada a utilização destes recursos para: * Criação de malware ou ataques cibernéticos. * Geração de desinformação, discurso de ódio ou conteúdo prejudicial. * Qualquer atividade que viole direitos humanos fundamentais ou legislações vigentes. ## 4. REPORTE DE VULNERABILIDADES Apoiamos a pesquisa de segurança responsável ("White Hat"). Se você identificar qualquer inconsistência técnica, viés não intencional ou falha de segurança nos vetores: 1. Por favor, reporte através da aba **"Community"** deste repositório. 2. Agradecemos a colaboração da comunidade científica para tornar estes modelos cada vez mais seguros e precisos. --- *"Building a safer Artificial Intelligence for everyone."*