Instructions to use lxcorp/WNL468M with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use lxcorp/WNL468M with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="lxcorp/WNL468M")# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("lxcorp/WNL468M") model = AutoModelForCausalLM.from_pretrained("lxcorp/WNL468M") - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use lxcorp/WNL468M with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "lxcorp/WNL468M" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "lxcorp/WNL468M", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }'Use Docker
docker model run hf.co/lxcorp/WNL468M
- SGLang
How to use lxcorp/WNL468M with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "lxcorp/WNL468M" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "lxcorp/WNL468M", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "lxcorp/WNL468M" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "lxcorp/WNL468M", "prompt": "Once upon a time,", "max_tokens": 512, "temperature": 0.5 }' - Docker Model Runner
How to use lxcorp/WNL468M with Docker Model Runner:
docker model run hf.co/lxcorp/WNL468M
🧠 WNL468M — Modelo de Raciocínio Lógico em Português
WNL468M é um modelo de linguagem com aproximadamente 468 milhões de parâmetros, desenvolvido especialmente para tarefas de raciocínio lógico e compreensão em português, com foco em ensino, educação e suporte acadêmico. O projeto nasceu inicialmente como um trabalho acadêmico para uma feira de ciências, simbolizando o poder da IA na educação em língua portuguesa.
✨ Origem do Nome
WNL é uma homenagem a três pessoas que inspiraram o projeto:
- W — Weia
- N — Náuria
- L — Leonilda
Embora não participem diretamente, seus nomes representam a motivação inicial do modelo.
👥 Equipe Fundadora
Desenvolvido sob a liderança de Marius Jabami, agora parte da λχ Corp., contando com a colaboração valiosa de:
- Ilson Lopes — Apoio geral ao desenvolvimento e testes técnicos
- Délcio Pro — Interface visual (Kivy), processamento de texto, usabilidade
- José Bukete — Lógica do chat em Kivy, controle de eventos e exibição de mensagens
- Fernando Queta — Integração com modelo Transformers, geração de respostas
- Inácio Oicani — Histórico de conversa, normalização de texto, refinamento de UI/UX
- Daniel Raimundo — Estilo visual, fontes, cores, animações e experiência do usuário
- Celsio Simplício — Testes, simulações, depuração e melhoria de desempenho
- Arsênio Afonso — Suporte em testes e revisão técnica
- Cristiano Jomba — Testes diversos, análise de comportamento do chatbot
🧩 Dataset Utilizado
O modelo foi treinado utilizando o dataset:
📚 cnmoro/LogicReasoningEnglishPortuguese
Um conjunto bilíngue com pares de perguntas e respostas que exigem raciocínio lógico, oferecendo uma base sólida para o desenvolvimento de capacidades de dedução e compreensão.
🔍 Informações Técnicas
- Parâmetros: ~468 milhões
- Arquitetura Base: Adaptada do LLaMA, reconhecida pela eficiência em NLP
- Tokenizador: SentencePiece (LLaMA-style)
- Treinamento: Fine-tuning com LoRA, seguido de merge dos pesos para otimização
- Framework: PyTorch com Hugging Face Transformers
- Tipo de Modelo: Causal Language Model (geração de texto)
- Idiomas: Português (principal), com dados auxiliares em inglês
- Uso Principal: Educação, chatbots acadêmicos, ensino de lógica
🎯 Propósito e Aplicações
O WNL468M foi criado com a missão de:
- Tornar o aprendizado de lógica e raciocínio mais acessível em português
- Ser exemplo de projeto educacional inovador em feiras de ciências
- Ajudar estudantes e professores a explorar conceitos complexos com IA
- Demonstrar o potencial colaborativo da inteligência artificial na educação
💻 Como Usar o Modelo
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
import torch
repo_id = "lxcorp/WNL468M"
tokenizer = AutoTokenizer.from_pretrained(repo_id)
model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
model.eval()
streamer = TextStreamer(tokenizer)
while True:
prompt = input("Você: ")
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
_ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)
🚀 Próximos Passos
Ampliar o dataset com mais exemplos em português
Desenvolver variantes maiores para áreas acadêmicas específicas
Integrar o modelo a plataformas educacionais e testar em ambientes reais
🔒 Licença
Este modelo está licenciado sob:
CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)
Você pode:
Compartilhar — copiar e redistribuir o material em qualquer meio ou formato
Sob as condições:
Atribuição — Deve creditar os autores (ver seção "Equipe Fundadora")
Não Comercial — Não pode usar para fins comerciais
Sem Derivações — Não pode remixar ou transformar o material
Este modelo é exclusivamente para fins acadêmicos e educacionais.
Criado com dedicação, conhecimento e fé no futuro da educação. λχ Corp. — Código com alma. Máquinas com visão.
- Downloads last month
- 11
Model tree for lxcorp/WNL468M
Base model
nicholasKluge/TeenyTinyLlama-460m