File size: 2,162 Bytes
bc28d55
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b1fcbcb
c30155d
b1fcbcb
c30155d
b1fcbcb
c30155d
b1fcbcb
 
 
 
c30155d
b1fcbcb
c30155d
b1fcbcb
3c5b2ff
b1fcbcb
 
3c5b2ff
b1fcbcb
c30155d
b1fcbcb
 
 
c30155d
 
b1fcbcb
3c5b2ff
b1fcbcb
c30155d
b1fcbcb
 
 
3c5b2ff
b1fcbcb
3c5b2ff
b1fcbcb
3c5b2ff
b1fcbcb
 
 
 
3c5b2ff
b1fcbcb
c30155d
b1fcbcb
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
---
library_name: transformers
tags:
- symbolic-decoder
- aletheia
- pytorch
- onnx
- philosophical-agi
- gnai-creator
license: apache-2.0
datasets:
- custom
language:
- en
pipeline_tag: text-generation
---

# Aletheia Noesis Decoder

Noesis é o decoder proprietário da AletheiaEngine. Ele traduz estados simbólicos \(\psi_s\) em linguagem natural garantindo a coerência epistemológica medida pela **Qualidade da Verdade (Q)**. Diferente de abordagens puramente estatísticas, o Noesis prioriza a fidelidade semântica entre a intenção simbólica e o texto gerado.

## Arquitetura

- **Transformer Decoder** com 8 camadas e atenção cruzada condicionada por \(\psi_s\) e estados contínuos.
- Entradas: vetor de intenção `psi_s`, memória lenta `state` opcional e sequência de tokens.
- Saídas: `logits`, embedding semântico `z_text` e métrica \(\hat{Q}\).
- Função de perda combina cross-entropy, coerência Q e penalizações de restrições.

## API FastAPI

O pacote inclui a aplicação `aletheia_decoder.api.app` com duas rotas:

- `POST /generate`: recebe `psi_s`, `state`, `constraints`, prompts opcionais e parâmetros de decodificação. Retorna texto gerado, tokens, \(\hat{Q}\) e metadados.
- `POST /train`: permite fine-tuning local a partir de um dataset JSONL.

### Execução local

```bash
pip install -r requirements.txt
uvicorn aletheia_decoder.api.app:app --host 0.0.0.0 --port 8000
```

## Treinamento

Use o script `aletheia_decoder/model/train.py` para treinar o modelo com dados anotados:

```bash
python -m aletheia_decoder.model.train data/dataset.jsonl --epochs 200 --batch-size 4 --lr 3e-5
```

Os checkpoints podem ser salvos com `torch.save(model.state_dict(), "noesis.pt")` e exportados para ONNX se necessário.

## Deploy no Hugging Face Spaces

1. Faça fork deste diretório para um repositório separado.
2. Configure o Space no modo **FastAPI** apontando para `app:app`.
3. Defina as variáveis de ambiente de acordo com sua infraestrutura (ex.: `DECODER_ENDPOINT`).
4. Opcionalmente publique checkpoints `.pt` e `.onnx` nos assets do Space.

## Slogan

> **Noesis — onde a intenção se torna linguagem.**