File size: 4,609 Bytes
4762022 e15e69c 4762022 a50f410 4762022 a50f410 4762022 e15e69c 4762022 a50f410 4762022 e15e69c 2ff66fa e15e69c 4762022 a50f410 da72fa7 a50f410 da72fa7 a50f410 da72fa7 a50f410 da72fa7 a50f410 da72fa7 a50f410 4762022 e15e69c 4762022 a50f410 4762022 e15e69c 4762022 a50f410 4762022 a50f410 4762022 e15e69c a50f410 e15e69c a50f410 4762022 e15e69c 4762022 a50f410 4762022 a50f410 4762022 e15e69c 4762022 e15e69c 4762022 a50f410 4762022 e15e69c 4762022 e15e69c 4762022 e15e69c 4762022 d943ea0 a50f410 3d836ca e15e69c 4762022 a50f410 4762022 a50f410 4762022 a50f410 4762022 e15e69c 85097db a50f410 85097db a50f410 85097db a50f410 fa4df69 a50f410 fa4df69 a50f410 fa4df69 a50f410 fa4df69 e15e69c |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 |
---
base_model: nicholasKluge/TeenyTinyLlama-460m
library_name: transformers
license: cc-by-nc-nd-4.0
language:
- pt
pipeline_tag: text-generation
datasets:
- cnmoro/LogicReasoningEnglishPortuguese
metrics:
- accuracy
---
# 🧠 WNL468M — Modelo de Raciocínio Lógico em Português
**WNL468M** é um modelo de linguagem com aproximadamente **468 milhões de parâmetros**, desenvolvido especialmente para tarefas de **raciocínio lógico** e compreensão em **português**, com foco em **ensino, educação e suporte acadêmico**. O projeto nasceu inicialmente como um trabalho acadêmico para uma feira de ciências, simbolizando o poder da IA na educação em língua portuguesa.
---
## ✨ Origem do Nome
**WNL** é uma homenagem a três pessoas que inspiraram o projeto:
- **W** — Weia
- **N** — Náuria
- **L** — Leonilda
Embora não participem diretamente, seus nomes representam a motivação inicial do modelo.
---
## 👥 Equipe Fundadora
Desenvolvido sob a liderança de [Marius Jabami](https://github.com/mariusjabami), agora parte da **λχ Corp.**, contando com a colaboração valiosa de:
- Ilson Lopes — Apoio geral ao desenvolvimento e testes técnicos
- Délcio Pro — Interface visual (Kivy), processamento de texto, usabilidade
- José Bukete — Lógica do chat em Kivy, controle de eventos e exibição de mensagens
- Fernando Queta — Integração com modelo Transformers, geração de respostas
- Inácio Oicani — Histórico de conversa, normalização de texto, refinamento de UI/UX
- Daniel Raimundo — Estilo visual, fontes, cores, animações e experiência do usuário
- Celsio Simplício — Testes, simulações, depuração e melhoria de desempenho
- Arsênio Afonso — Suporte em testes e revisão técnica
- Cristiano Jomba — Testes diversos, análise de comportamento do chatbot
---
## 🧩 Dataset Utilizado
O modelo foi treinado utilizando o dataset:
📚 [`cnmoro/LogicReasoningEnglishPortuguese`](https://huggingface.co/datasets/cnmoro/LogicReasoningEnglishPortuguese)
Um conjunto bilíngue com pares de perguntas e respostas que exigem **raciocínio lógico**, oferecendo uma base sólida para o desenvolvimento de capacidades de dedução e compreensão.
---
## 🔍 Informações Técnicas
- **Parâmetros:** ~468 milhões
- **Arquitetura Base:** Adaptada do LLaMA, reconhecida pela eficiência em NLP
- **Tokenizador:** SentencePiece (LLaMA-style)
- **Treinamento:** Fine-tuning com LoRA, seguido de merge dos pesos para otimização
- **Framework:** PyTorch com Hugging Face Transformers
- **Tipo de Modelo:** Causal Language Model (geração de texto)
- **Idiomas:** Português (principal), com dados auxiliares em inglês
- **Uso Principal:** Educação, chatbots acadêmicos, ensino de lógica
---
## 🎯 Propósito e Aplicações
O **WNL468M** foi criado com a missão de:
- Tornar o aprendizado de lógica e raciocínio mais acessível em português
- Ser exemplo de projeto educacional inovador em feiras de ciências
- Ajudar estudantes e professores a explorar conceitos complexos com IA
- Demonstrar o potencial colaborativo da inteligência artificial na educação
---
## 💻 Como Usar o Modelo
```python
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
import torch
repo_id = "lxcorp/WNL468M"
tokenizer = AutoTokenizer.from_pretrained(repo_id)
model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
model.eval()
streamer = TextStreamer(tokenizer)
while True:
prompt = input("Você: ")
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
_ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)
```
---
🚀 Próximos Passos
Ampliar o dataset com mais exemplos em português
Desenvolver variantes maiores para áreas acadêmicas específicas
Integrar o modelo a plataformas educacionais e testar em ambientes reais
---
🔒 Licença
Este modelo está licenciado sob:
CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)
Você pode:
Compartilhar — copiar e redistribuir o material em qualquer meio ou formato
Sob as condições:
Atribuição — Deve creditar os autores (ver seção "Equipe Fundadora")
Não Comercial — Não pode usar para fins comerciais
Sem Derivações — Não pode remixar ou transformar o material
Este modelo é exclusivamente para fins acadêmicos e educacionais.
---
> Criado com dedicação, conhecimento e fé no futuro da educação.
λχ Corp. — Código com alma. Máquinas com visão.
--- |