Update README.md
Browse files
README.md
CHANGED
|
@@ -10,70 +10,73 @@ datasets:
|
|
| 10 |
metrics:
|
| 11 |
- accuracy
|
| 12 |
---
|
| 13 |
-
# 🧠 WNL468M — Modelo de Raciocínio Lógico em Português
|
| 14 |
|
| 15 |
-
**WNL468M** é um modelo de linguagem com aproximadamente **468 milhões de parâmetros**, desenvolvido especialmente para tarefas de **raciocínio lógico** e compreensão em **português**, com foco em **ensino, educação e suporte acadêmico**.
|
|
|
|
|
|
|
| 16 |
|
| 17 |
## ✨ Origem do Nome
|
| 18 |
|
| 19 |
-
**WNL** é uma homenagem a três
|
| 20 |
|
| 21 |
- **W** — Weia
|
| 22 |
- **N** — Náuria
|
| 23 |
- **L** — Leonilda
|
| 24 |
|
| 25 |
-
Embora
|
| 26 |
-
|
| 27 |
-
## 👥 Equipe Fundadora
|
| 28 |
-
|
| 29 |
-
- Marius Jabami (Λ) – Desenvolvedor principal, integração com modelo, lógica central e liderança técnica
|
| 30 |
-
|
| 31 |
-
- Ilson Lopes – Apoio geral ao desenvolvimento e testes técnicos
|
| 32 |
-
|
| 33 |
-
- Délcio Pro – Interface visual (Kivy), processamento de texto, usabilidade
|
| 34 |
-
|
| 35 |
-
- José Bukete – Lógica do chat em Kivy, controle de eventos e exibição de mensagens
|
| 36 |
-
|
| 37 |
-
- Fernando Queta – Integração com modelo Transformers, geração de respostas
|
| 38 |
|
| 39 |
-
|
| 40 |
-
|
| 41 |
-
- Daniel Raimundo – Estilo visual, fontes, cores, animações e experiência do usuário
|
| 42 |
|
| 43 |
-
|
| 44 |
|
| 45 |
-
|
| 46 |
|
| 47 |
-
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 48 |
|
|
|
|
| 49 |
|
| 50 |
## 🧩 Dataset Utilizado
|
| 51 |
|
| 52 |
-
O modelo foi
|
| 53 |
|
| 54 |
📚 [`cnmoro/LogicReasoningEnglishPortuguese`](https://huggingface.co/datasets/cnmoro/LogicReasoningEnglishPortuguese)
|
| 55 |
|
| 56 |
-
|
| 57 |
|
| 58 |
-
|
|
|
|
|
|
|
| 59 |
|
| 60 |
- **Parâmetros:** ~468 milhões
|
| 61 |
-
- **Arquitetura Base:** Adaptada do LLaMA,
|
| 62 |
-
- **Tokenizador:** SentencePiece (
|
| 63 |
-
- **
|
| 64 |
- **Framework:** PyTorch com Hugging Face Transformers
|
| 65 |
-
- **Tipo de Modelo:** Causal Language Model (
|
| 66 |
-
- **Idiomas:** Português (principal), com
|
| 67 |
-
- **Uso:**
|
|
|
|
|
|
|
| 68 |
|
| 69 |
## 🎯 Propósito e Aplicações
|
| 70 |
|
| 71 |
-
O **WNL468M** foi
|
| 72 |
|
| 73 |
-
-
|
| 74 |
-
-
|
| 75 |
-
-
|
| 76 |
-
- Demonstrar
|
|
|
|
|
|
|
| 77 |
|
| 78 |
## 💻 Como Usar o Modelo
|
| 79 |
|
|
@@ -81,7 +84,7 @@ O **WNL468M** foi desenvolvido com foco pedagógico, visando:
|
|
| 81 |
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
|
| 82 |
import torch
|
| 83 |
|
| 84 |
-
repo_id = "
|
| 85 |
|
| 86 |
tokenizer = AutoTokenizer.from_pretrained(repo_id)
|
| 87 |
model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
|
|
@@ -94,41 +97,50 @@ while True:
|
|
| 94 |
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
|
| 95 |
_ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)
|
| 96 |
|
| 97 |
-
|
|
|
|
| 98 |
|
| 99 |
🚀 Próximos Passos
|
| 100 |
|
| 101 |
-
|
| 102 |
|
| 103 |
-
|
| 104 |
|
| 105 |
-
|
| 106 |
|
| 107 |
|
| 108 |
|
| 109 |
---
|
| 110 |
|
| 111 |
-
|
| 112 |
-
Equipe fundadora empenhada em transformar aprendizado através da inteligência artificial.
|
| 113 |
|
| 114 |
-
|
| 115 |
|
| 116 |
-
|
| 117 |
|
| 118 |
-
|
|
|
|
|
|
|
| 119 |
|
| 120 |
-
**[CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)](https://creativecommons.org/licenses/by-nc-nd/4.0/deed.pt)**
|
| 121 |
|
| 122 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 123 |
|
| 124 |
-
|
|
|
|
| 125 |
|
| 126 |
-
Desde que siga os termos:
|
| 127 |
|
| 128 |
-
- **Atribuição** — Deve creditar os autores (ver seção "Equipe Fundadora").
|
| 129 |
-
- **Não Comercial** — Não pode usar o material para fins comerciais.
|
| 130 |
-
- **Sem Derivações** — Não pode remixar, transformar ou criar a partir do material.
|
| 131 |
|
| 132 |
-
Este modelo é exclusivo para fins **acadêmicos e educacionais**.
|
| 133 |
|
| 134 |
---
|
|
|
|
| 10 |
metrics:
|
| 11 |
- accuracy
|
| 12 |
---
|
| 13 |
+
# 🧠 WNL468M — Modelo de Raciocínio Lógico em Português
|
| 14 |
|
| 15 |
+
**WNL468M** é um modelo de linguagem com aproximadamente **468 milhões de parâmetros**, desenvolvido especialmente para tarefas de **raciocínio lógico** e compreensão em **português**, com foco em **ensino, educação e suporte acadêmico**. O projeto nasceu inicialmente como um trabalho acadêmico para uma feira de ciências, simbolizando o poder da IA na educação em língua portuguesa.
|
| 16 |
+
|
| 17 |
+
---
|
| 18 |
|
| 19 |
## ✨ Origem do Nome
|
| 20 |
|
| 21 |
+
**WNL** é uma homenagem a três pessoas que inspiraram o projeto:
|
| 22 |
|
| 23 |
- **W** — Weia
|
| 24 |
- **N** — Náuria
|
| 25 |
- **L** — Leonilda
|
| 26 |
|
| 27 |
+
Embora não participem diretamente, seus nomes representam a motivação inicial do modelo.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 28 |
|
| 29 |
+
---
|
|
|
|
|
|
|
| 30 |
|
| 31 |
+
## 👥 Equipe Fundadora
|
| 32 |
|
| 33 |
+
Desenvolvido sob a liderança de [Marius Jabami](https://github.com/mariusjabami), agora parte da **λχ Corp.**, contando com a colaboração valiosa de:
|
| 34 |
|
| 35 |
+
- Ilson Lopes — Apoio geral ao desenvolvimento e testes técnicos
|
| 36 |
+
- Délcio Pro — Interface visual (Kivy), processamento de texto, usabilidade
|
| 37 |
+
- José Bukete — Lógica do chat em Kivy, controle de eventos e exibição de mensagens
|
| 38 |
+
- Fernando Queta — Integração com modelo Transformers, geração de respostas
|
| 39 |
+
- Inácio Oicani — Histórico de conversa, normalização de texto, refinamento de UI/UX
|
| 40 |
+
- Daniel Raimundo — Estilo visual, fontes, cores, animações e experiência do usuário
|
| 41 |
+
- Celsio Simplício — Testes, simulações, depuração e melhoria de desempenho
|
| 42 |
+
- Arsênio Afonso — Suporte em testes e revisão técnica
|
| 43 |
+
- Cristiano Jomba — Testes diversos, análise de comportamento do chatbot
|
| 44 |
|
| 45 |
+
---
|
| 46 |
|
| 47 |
## 🧩 Dataset Utilizado
|
| 48 |
|
| 49 |
+
O modelo foi treinado utilizando o dataset:
|
| 50 |
|
| 51 |
📚 [`cnmoro/LogicReasoningEnglishPortuguese`](https://huggingface.co/datasets/cnmoro/LogicReasoningEnglishPortuguese)
|
| 52 |
|
| 53 |
+
Um conjunto bilíngue com pares de perguntas e respostas que exigem **raciocínio lógico**, oferecendo uma base sólida para o desenvolvimento de capacidades de dedução e compreensão.
|
| 54 |
|
| 55 |
+
---
|
| 56 |
+
|
| 57 |
+
## 🔍 Informações Técnicas
|
| 58 |
|
| 59 |
- **Parâmetros:** ~468 milhões
|
| 60 |
+
- **Arquitetura Base:** Adaptada do LLaMA, reconhecida pela eficiência em NLP
|
| 61 |
+
- **Tokenizador:** SentencePiece (LLaMA-style)
|
| 62 |
+
- **Treinamento:** Fine-tuning com LoRA, seguido de merge dos pesos para otimização
|
| 63 |
- **Framework:** PyTorch com Hugging Face Transformers
|
| 64 |
+
- **Tipo de Modelo:** Causal Language Model (geração de texto)
|
| 65 |
+
- **Idiomas:** Português (principal), com dados auxiliares em inglês
|
| 66 |
+
- **Uso Principal:** Educação, chatbots acadêmicos, ensino de lógica
|
| 67 |
+
|
| 68 |
+
---
|
| 69 |
|
| 70 |
## 🎯 Propósito e Aplicações
|
| 71 |
|
| 72 |
+
O **WNL468M** foi criado com a missão de:
|
| 73 |
|
| 74 |
+
- Tornar o aprendizado de lógica e raciocínio mais acessível em português
|
| 75 |
+
- Ser exemplo de projeto educacional inovador em feiras de ciências
|
| 76 |
+
- Ajudar estudantes e professores a explorar conceitos complexos com IA
|
| 77 |
+
- Demonstrar o potencial colaborativo da inteligência artificial na educação
|
| 78 |
+
|
| 79 |
+
---
|
| 80 |
|
| 81 |
## 💻 Como Usar o Modelo
|
| 82 |
|
|
|
|
| 84 |
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
|
| 85 |
import torch
|
| 86 |
|
| 87 |
+
repo_id = "lxcorp/WNL468M"
|
| 88 |
|
| 89 |
tokenizer = AutoTokenizer.from_pretrained(repo_id)
|
| 90 |
model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
|
|
|
|
| 97 |
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
|
| 98 |
_ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)
|
| 99 |
|
| 100 |
+
|
| 101 |
+
---
|
| 102 |
|
| 103 |
🚀 Próximos Passos
|
| 104 |
|
| 105 |
+
Ampliar o dataset com mais exemplos em português
|
| 106 |
|
| 107 |
+
Desenvolver variantes maiores para áreas acadêmicas específicas
|
| 108 |
|
| 109 |
+
Integrar o modelo a plataformas educacionais e testar em ambientes reais
|
| 110 |
|
| 111 |
|
| 112 |
|
| 113 |
---
|
| 114 |
|
| 115 |
+
🔒 Licença
|
|
|
|
| 116 |
|
| 117 |
+
Este modelo está licenciado sob:
|
| 118 |
|
| 119 |
+
CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)
|
| 120 |
|
| 121 |
+
Você pode:
|
| 122 |
+
|
| 123 |
+
Compartilhar — copiar e redistribuir o material em qualquer meio ou formato
|
| 124 |
|
|
|
|
| 125 |
|
| 126 |
+
Sob as condições:
|
| 127 |
+
|
| 128 |
+
Atribuição — Deve creditar os autores (ver seção "Equipe Fundadora")
|
| 129 |
+
|
| 130 |
+
Não Comercial — Não pode usar para fins comerciais
|
| 131 |
+
|
| 132 |
+
Sem Derivações — Não pode remixar ou transformar o material
|
| 133 |
+
|
| 134 |
+
|
| 135 |
+
Este modelo é exclusivamente para fins acadêmicos e educacionais.
|
| 136 |
+
|
| 137 |
+
|
| 138 |
+
---
|
| 139 |
|
| 140 |
+
> Criado com dedicação, conhecimento e fé no futuro da educação.
|
| 141 |
+
λχ Corp. — Código com alma. Máquinas com visão.
|
| 142 |
|
|
|
|
| 143 |
|
|
|
|
|
|
|
|
|
|
| 144 |
|
|
|
|
| 145 |
|
| 146 |
---
|