File size: 4,609 Bytes
4762022
 
e15e69c
 
 
 
 
 
 
 
 
4762022
a50f410
4762022
a50f410
 
 
4762022
e15e69c
4762022
a50f410
4762022
e15e69c
2ff66fa
e15e69c
4762022
a50f410
da72fa7
a50f410
da72fa7
a50f410
da72fa7
a50f410
da72fa7
a50f410
 
 
 
 
 
 
 
 
da72fa7
a50f410
4762022
e15e69c
4762022
a50f410
4762022
e15e69c
4762022
a50f410
4762022
a50f410
 
 
4762022
e15e69c
a50f410
 
 
e15e69c
a50f410
 
 
 
 
4762022
e15e69c
4762022
a50f410
4762022
a50f410
 
 
 
 
 
4762022
e15e69c
4762022
e15e69c
 
 
4762022
a50f410
4762022
e15e69c
 
 
4762022
e15e69c
4762022
e15e69c
 
 
 
4762022
d943ea0
a50f410
3d836ca
e15e69c
4762022
a50f410
4762022
a50f410
4762022
a50f410
4762022
 
 
e15e69c
85097db
a50f410
85097db
a50f410
85097db
a50f410
fa4df69
a50f410
 
 
fa4df69
 
a50f410
 
 
 
 
 
 
 
 
 
 
 
 
fa4df69
a50f410
 
fa4df69
 
 
 
e15e69c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
---
base_model: nicholasKluge/TeenyTinyLlama-460m
library_name: transformers
license: cc-by-nc-nd-4.0
language:
- pt
pipeline_tag: text-generation
datasets:
- cnmoro/LogicReasoningEnglishPortuguese
metrics:
- accuracy
---
# 🧠 WNL468M — Modelo de Raciocínio Lógico em Português

**WNL468M** é um modelo de linguagem com aproximadamente **468 milhões de parâmetros**, desenvolvido especialmente para tarefas de **raciocínio lógico** e compreensão em **português**, com foco em **ensino, educação e suporte acadêmico**. O projeto nasceu inicialmente como um trabalho acadêmico para uma feira de ciências, simbolizando o poder da IA na educação em língua portuguesa.

---

## ✨ Origem do Nome

**WNL** é uma homenagem a três pessoas que inspiraram o projeto:

- **W** — Weia  
- **N** — Náuria  
- **L** — Leonilda  

Embora não participem diretamente, seus nomes representam a motivação inicial do modelo.

---

## 👥 Equipe Fundadora

Desenvolvido sob a liderança de [Marius Jabami](https://github.com/mariusjabami), agora parte da **λχ Corp.**, contando com a colaboração valiosa de:

- Ilson Lopes — Apoio geral ao desenvolvimento e testes técnicos
- Délcio Pro — Interface visual (Kivy), processamento de texto, usabilidade
- José Bukete — Lógica do chat em Kivy, controle de eventos e exibição de mensagens
- Fernando Queta — Integração com modelo Transformers, geração de respostas
- Inácio Oicani — Histórico de conversa, normalização de texto, refinamento de UI/UX
- Daniel Raimundo — Estilo visual, fontes, cores, animações e experiência do usuário
- Celsio Simplício — Testes, simulações, depuração e melhoria de desempenho
- Arsênio Afonso — Suporte em testes e revisão técnica
- Cristiano Jomba — Testes diversos, análise de comportamento do chatbot

---

## 🧩 Dataset Utilizado

O modelo foi treinado utilizando o dataset:

📚 [`cnmoro/LogicReasoningEnglishPortuguese`](https://huggingface.co/datasets/cnmoro/LogicReasoningEnglishPortuguese)

Um conjunto bilíngue com pares de perguntas e respostas que exigem **raciocínio lógico**, oferecendo uma base sólida para o desenvolvimento de capacidades de dedução e compreensão.

---

## 🔍 Informações Técnicas

- **Parâmetros:** ~468 milhões  
- **Arquitetura Base:** Adaptada do LLaMA, reconhecida pela eficiência em NLP  
- **Tokenizador:** SentencePiece (LLaMA-style)  
- **Treinamento:** Fine-tuning com LoRA, seguido de merge dos pesos para otimização  
- **Framework:** PyTorch com Hugging Face Transformers  
- **Tipo de Modelo:** Causal Language Model (geração de texto)  
- **Idiomas:** Português (principal), com dados auxiliares em inglês  
- **Uso Principal:** Educação, chatbots acadêmicos, ensino de lógica

---

## 🎯 Propósito e Aplicações

O **WNL468M** foi criado com a missão de:

- Tornar o aprendizado de lógica e raciocínio mais acessível em português
- Ser exemplo de projeto educacional inovador em feiras de ciências
- Ajudar estudantes e professores a explorar conceitos complexos com IA
- Demonstrar o potencial colaborativo da inteligência artificial na educação

---

## 💻 Como Usar o Modelo

```python
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
import torch

repo_id = "lxcorp/WNL468M"

tokenizer = AutoTokenizer.from_pretrained(repo_id)
model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
model.eval()

streamer = TextStreamer(tokenizer)

while True:
    prompt = input("Você: ")
    inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
    _ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)

```
---

🚀 Próximos Passos

Ampliar o dataset com mais exemplos em português

Desenvolver variantes maiores para áreas acadêmicas específicas

Integrar o modelo a plataformas educacionais e testar em ambientes reais



---

🔒 Licença

Este modelo está licenciado sob:

CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)

Você pode:

Compartilhar — copiar e redistribuir o material em qualquer meio ou formato


Sob as condições:

Atribuição — Deve creditar os autores (ver seção "Equipe Fundadora")

Não Comercial — Não pode usar para fins comerciais

Sem Derivações — Não pode remixar ou transformar o material


Este modelo é exclusivamente para fins acadêmicos e educacionais.


---

> Criado com dedicação, conhecimento e fé no futuro da educação.
λχ Corp. — Código com alma. Máquinas com visão.




---