mariusjabami commited on
Commit
a50f410
·
verified ·
1 Parent(s): 56ac8f3

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +66 -54
README.md CHANGED
@@ -10,70 +10,73 @@ datasets:
10
  metrics:
11
  - accuracy
12
  ---
13
- # 🧠 WNL468M — Modelo de Raciocínio Lógico em Português para Ensino e Educação
14
 
15
- **WNL468M** é um modelo de linguagem com aproximadamente **468 milhões de parâmetros**, desenvolvido especialmente para tarefas de **raciocínio lógico** e compreensão em **português**, com foco em **ensino, educação e suporte acadêmico**. Este projeto foi inspirado e criado para um **projeto acadêmico** de destaque em uma **feira de ciências**, com o objetivo de contribuir para o avanço do ensino de inteligência artificial aplicada ao idioma português.
 
 
16
 
17
  ## ✨ Origem do Nome
18
 
19
- **WNL** é uma homenagem a três colegas que foram a inspiração inicial para o projeto:
20
 
21
  - **W** — Weia
22
  - **N** — Náuria
23
  - **L** — Leonilda
24
 
25
- Embora elas não participem diretamente, seus nomes simbolizam a motivação que deu origem ao desenvolvimento do modelo.
26
-
27
- ## 👥 Equipe Fundadora
28
-
29
- - Marius Jabami (Λ) – Desenvolvedor principal, integração com modelo, lógica central e liderança técnica
30
-
31
- - Ilson Lopes – Apoio geral ao desenvolvimento e testes técnicos
32
-
33
- - Délcio Pro – Interface visual (Kivy), processamento de texto, usabilidade
34
-
35
- - José Bukete – Lógica do chat em Kivy, controle de eventos e exibição de mensagens
36
-
37
- - Fernando Queta – Integração com modelo Transformers, geração de respostas
38
 
39
- - Inácio Oicani – Histórico de conversa, normalização de texto, refinamento de UI/UX
40
-
41
- - Daniel Raimundo – Estilo visual, fontes, cores, animações e experiência do usuário
42
 
43
- - Celsio Simplício – Testes, simulações, depuração e melhoria de desempenho
44
 
45
- - Arsênio Afonso Suporte em testes e revisão técnica
46
 
47
- - Cristiano Jomba Testes diversos, análise de comportamento do chatbot
 
 
 
 
 
 
 
 
48
 
 
49
 
50
  ## 🧩 Dataset Utilizado
51
 
52
- O modelo foi finamente ajustado utilizando o dataset:
53
 
54
  📚 [`cnmoro/LogicReasoningEnglishPortuguese`](https://huggingface.co/datasets/cnmoro/LogicReasoningEnglishPortuguese)
55
 
56
- Este conjunto bilíngue contém pares de perguntas e respostas que exigem **raciocínio lógico**, proporcionando uma base robusta para treinar o modelo em tarefas de compreensão, dedução e resposta estruturada, essenciais para aplicações educacionais.
57
 
58
- ## 🔍 Informações Técnicas Detalhadas
 
 
59
 
60
  - **Parâmetros:** ~468 milhões
61
- - **Arquitetura Base:** Adaptada do LLaMA, conhecida pela eficiência em tarefas de linguagem natural
62
- - **Tokenizador:** SentencePiece (formato LLaMA)
63
- - **Método de Treinamento:** Fine-tuning com LoRA, seguido de mesclagem dos pesos para otimização
64
  - **Framework:** PyTorch com Hugging Face Transformers
65
- - **Tipo de Modelo:** Causal Language Model (modelo generativo para texto)
66
- - **Idiomas:** Português (principal), com suporte a dados em inglês do dataset bilíngue
67
- - **Uso:** Aplicações educacionais, chatbots acadêmicos, ferramentas de ensino e suporte ao raciocínio lógico
 
 
68
 
69
  ## 🎯 Propósito e Aplicações
70
 
71
- O **WNL468M** foi desenvolvido com foco pedagógico, visando:
72
 
73
- - Facilitar o aprendizado e o ensino de lógica e raciocínio no idioma português
74
- - Servir como base para projetos acadêmicos e feiras de ciências, mostrando a viabilidade de modelos customizados para educação
75
- - Criar ferramentas interativas que ajudem estudantes e educadores a explorarem conceitos complexos de forma acessível e inteligente
76
- - Demonstrar que projetos de IA podem ser desenvolvidos colaborativamente em ambientes educacionais
 
 
77
 
78
  ## 💻 Como Usar o Modelo
79
 
@@ -81,7 +84,7 @@ O **WNL468M** foi desenvolvido com foco pedagógico, visando:
81
  from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
82
  import torch
83
 
84
- repo_id = "lambdaindie/WNL468M"
85
 
86
  tokenizer = AutoTokenizer.from_pretrained(repo_id)
87
  model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
@@ -94,41 +97,50 @@ while True:
94
  inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
95
  _ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)
96
 
97
- ```
 
98
 
99
  🚀 Próximos Passos
100
 
101
- Ampliação do dataset com mais exemplos em português
102
 
103
- Desenvolvimento de versões maiores com foco em domínio acadêmico específico
104
 
105
- Integração com plataformas educacionais para testes reais em sala de aula
106
 
107
 
108
 
109
  ---
110
 
111
- Criado com dedicação, conhecimento e fé no futuro da educação.
112
- Equipe fundadora empenhada em transformar aprendizado através da inteligência artificial.
113
 
114
- ---
115
 
116
- ## 🔒 Licença
117
 
118
- Este modelo está licenciado sob:
 
 
119
 
120
- **[CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)](https://creativecommons.org/licenses/by-nc-nd/4.0/deed.pt)**
121
 
122
- Você é livre para:
 
 
 
 
 
 
 
 
 
 
 
 
123
 
124
- - Compartilhar copiar e redistribuir o material em qualquer meio ou formato
 
125
 
126
- Desde que siga os termos:
127
 
128
- - **Atribuição** — Deve creditar os autores (ver seção "Equipe Fundadora").
129
- - **Não Comercial** — Não pode usar o material para fins comerciais.
130
- - **Sem Derivações** — Não pode remixar, transformar ou criar a partir do material.
131
 
132
- Este modelo é exclusivo para fins **acadêmicos e educacionais**.
133
 
134
  ---
 
10
  metrics:
11
  - accuracy
12
  ---
13
+ # 🧠 WNL468M — Modelo de Raciocínio Lógico em Português
14
 
15
+ **WNL468M** é um modelo de linguagem com aproximadamente **468 milhões de parâmetros**, desenvolvido especialmente para tarefas de **raciocínio lógico** e compreensão em **português**, com foco em **ensino, educação e suporte acadêmico**. O projeto nasceu inicialmente como um trabalho acadêmico para uma feira de ciências, simbolizando o poder da IA na educação em língua portuguesa.
16
+
17
+ ---
18
 
19
  ## ✨ Origem do Nome
20
 
21
+ **WNL** é uma homenagem a três pessoas que inspiraram o projeto:
22
 
23
  - **W** — Weia
24
  - **N** — Náuria
25
  - **L** — Leonilda
26
 
27
+ Embora não participem diretamente, seus nomes representam a motivação inicial do modelo.
 
 
 
 
 
 
 
 
 
 
 
 
28
 
29
+ ---
 
 
30
 
31
+ ## 👥 Equipe Fundadora
32
 
33
+ Desenvolvido sob a liderança de [Marius Jabami](https://github.com/mariusjabami), agora parte da **λχ Corp.**, contando com a colaboração valiosa de:
34
 
35
+ - Ilson Lopes Apoio geral ao desenvolvimento e testes técnicos
36
+ - Délcio Pro — Interface visual (Kivy), processamento de texto, usabilidade
37
+ - José Bukete — Lógica do chat em Kivy, controle de eventos e exibição de mensagens
38
+ - Fernando Queta — Integração com modelo Transformers, geração de respostas
39
+ - Inácio Oicani — Histórico de conversa, normalização de texto, refinamento de UI/UX
40
+ - Daniel Raimundo — Estilo visual, fontes, cores, animações e experiência do usuário
41
+ - Celsio Simplício — Testes, simulações, depuração e melhoria de desempenho
42
+ - Arsênio Afonso — Suporte em testes e revisão técnica
43
+ - Cristiano Jomba — Testes diversos, análise de comportamento do chatbot
44
 
45
+ ---
46
 
47
  ## 🧩 Dataset Utilizado
48
 
49
+ O modelo foi treinado utilizando o dataset:
50
 
51
  📚 [`cnmoro/LogicReasoningEnglishPortuguese`](https://huggingface.co/datasets/cnmoro/LogicReasoningEnglishPortuguese)
52
 
53
+ Um conjunto bilíngue com pares de perguntas e respostas que exigem **raciocínio lógico**, oferecendo uma base sólida para o desenvolvimento de capacidades de dedução e compreensão.
54
 
55
+ ---
56
+
57
+ ## 🔍 Informações Técnicas
58
 
59
  - **Parâmetros:** ~468 milhões
60
+ - **Arquitetura Base:** Adaptada do LLaMA, reconhecida pela eficiência em NLP
61
+ - **Tokenizador:** SentencePiece (LLaMA-style)
62
+ - **Treinamento:** Fine-tuning com LoRA, seguido de merge dos pesos para otimização
63
  - **Framework:** PyTorch com Hugging Face Transformers
64
+ - **Tipo de Modelo:** Causal Language Model (geração de texto)
65
+ - **Idiomas:** Português (principal), com dados auxiliares em inglês
66
+ - **Uso Principal:** Educação, chatbots acadêmicos, ensino de lógica
67
+
68
+ ---
69
 
70
  ## 🎯 Propósito e Aplicações
71
 
72
+ O **WNL468M** foi criado com a missão de:
73
 
74
+ - Tornar o aprendizado de lógica e raciocínio mais acessível em português
75
+ - Ser exemplo de projeto educacional inovador em feiras de ciências
76
+ - Ajudar estudantes e professores a explorar conceitos complexos com IA
77
+ - Demonstrar o potencial colaborativo da inteligência artificial na educação
78
+
79
+ ---
80
 
81
  ## 💻 Como Usar o Modelo
82
 
 
84
  from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
85
  import torch
86
 
87
+ repo_id = "lxcorp/WNL468M"
88
 
89
  tokenizer = AutoTokenizer.from_pretrained(repo_id)
90
  model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
 
97
  inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
98
  _ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)
99
 
100
+
101
+ ---
102
 
103
  🚀 Próximos Passos
104
 
105
+ Ampliar o dataset com mais exemplos em português
106
 
107
+ Desenvolver variantes maiores para áreas acadêmicas específicas
108
 
109
+ Integrar o modelo a plataformas educacionais e testar em ambientes reais
110
 
111
 
112
 
113
  ---
114
 
115
+ 🔒 Licença
 
116
 
117
+ Este modelo está licenciado sob:
118
 
119
+ CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)
120
 
121
+ Você pode:
122
+
123
+ Compartilhar — copiar e redistribuir o material em qualquer meio ou formato
124
 
 
125
 
126
+ Sob as condições:
127
+
128
+ Atribuição — Deve creditar os autores (ver seção "Equipe Fundadora")
129
+
130
+ Não Comercial — Não pode usar para fins comerciais
131
+
132
+ Sem Derivações — Não pode remixar ou transformar o material
133
+
134
+
135
+ Este modelo é exclusivamente para fins acadêmicos e educacionais.
136
+
137
+
138
+ ---
139
 
140
+ > Criado com dedicação, conhecimento e no futuro da educação.
141
+ λχ Corp. — Código com alma. Máquinas com visão.
142
 
 
143
 
 
 
 
144
 
 
145
 
146
  ---