⚖️ TERMO DE USO ACADÊMICO E POLÍTICA DE SEGURANÇA
Pesquisador Responsável: Dr. Luís Henrique Leonardo Pereira
Projeto: PEAL_V4 & AI Alignment Research
1. PROPÓSITO E MISSÃO
Este repositório é mantido como uma iniciativa estritamente acadêmica e científica. O objetivo dos dados, vetores e códigos aqui compartilhados é contribuir para o avanço da Segurança de Inteligência Artificial (AI Safety), estabilização de modelos de linguagem e redução de alucinações (Entropia Zero).
Nosso compromisso é com o desenvolvimento de tecnologias que sejam benéficas, seguras e transparentes para a sociedade.
2. ISENÇÃO DE RESPONSABILIDADE (DISCLAIMER)
Todo o material contido neste repositório é fornecido "NO ESTADO EM QUE SE ENCONTRA" (AS IS), sem garantias de qualquer tipo, expressas ou implícitas.
- Natureza Experimental: O usuário deve estar ciente de que os vetores de calibração PEAL_V4 são ferramentas experimentais de pesquisa.
- Limitação de Responsabilidade: O autor não se responsabiliza por quaisquer danos, perda de dados, interrupção de serviços ou comportamentos inesperados em modelos de terceiros resultantes da utilização destes arquivos. O uso é de inteira responsabilidade do implementador.
3. DIRETRIZES DE USO ÉTICO
Ao utilizar os recursos deste repositório, você concorda em aderir aos seguintes princípios éticos:
- Permitido: Uso para pesquisa, auditoria de segurança, fins educacionais e integração em sistemas de IA visando melhoria de robustez e segurança.
- Proibido: É vedada a utilização destes recursos para:
- Criação de malware ou ataques cibernéticos.
- Geração de desinformação, discurso de ódio ou conteúdo prejudicial.
- Qualquer atividade que viole direitos humanos fundamentais ou legislações vigentes.
4. REPORTE DE VULNERABILIDADES
Apoiamos a pesquisa de segurança responsável ("White Hat"). Se você identificar qualquer inconsistência técnica, viés não intencional ou falha de segurança nos vetores:
- Por favor, reporte através da aba "Community" deste repositório.
- Agradecemos a colaboração da comunidade científica para tornar estes modelos cada vez mais seguros e precisos.
"Building a safer Artificial Intelligence for everyone."