--- tags: - chatbot - treino - nutrição - fitness - português - distilgpt2 language: pt license: mit datasets: - wpbcpaz/fitness-chatbot-dataset metrics: - perplexity model-index: - name: Fitness Chatbot Model results: - task: type: text-generation name: Geração de texto dataset: name: Fitness Chatbot Dataset type: custom metrics: - name: Perplexity type: perplexity value: 12.3 --- ![Capa do Chatbot](https://huggingface.co/wpbcpaz/fitness-chatbot-model/resolve/main/chatbot_treino_nutri.png) # 🏋️ Chatbot de Treino e Nutrição Este modelo foi treinado para atuar como um **assistente virtual especializado em educação física e nutrição**, com foco em iniciantes que desejam montar planos de treino e dieta personalizados. --- ## 📚 Dataset O modelo foi treinado com um conjunto de dados customizado contendo perguntas e respostas sobre: - Treinos semanais para diferentes níveis - Dietas para emagrecimento, hipertrofia e manutenção - Restrições alimentares (vegetarianismo, intolerância à lactose) - Recomendações de frequência, recuperação e mobilidade Formato: JSONL com campos `"input"` e `"output"` Repositório do dataset: [wpbcpaz/fitness-chatbot-dataset](https://huggingface.co/datasets/wpbcpaz/fitness-chatbot-dataset) --- ## 🧠 Modelo - **Base:** distilgpt2 - **Tipo:** Causal Language Model - **Idioma:** Português - **Tamanho:** Leve, ideal para aplicações web e mobile --- ## 🎯 Aplicações - Chatbots para academias ou apps de saúde - Interfaces conversacionais em sites - Ferramentas de onboarding para novos praticantes - Assistentes virtuais para planos alimentares básicos --- ## 🧪 Como usar ```python from transformers import AutoTokenizer, AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained("wpbcpaz/fitness-chatbot-model") tokenizer = AutoTokenizer.from_pretrained("wpbcpaz/fitness-chatbot-model") input_text = "Usuário: Tenho 30 anos, treino 4x por semana e quero ganhar massa muscular.\nChatbot:" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=100) print(tokenizer.decode(outputs[0])) ``` ### Hiperparâmetros de treinamento Os seguintes hiperparâmetros foram utilizados durante o treinamento: - taxa_de_aprendizado: 5e-05 - tamanho_do_lote_treinamento: 4 - tamanho_do_lote_avaliacao: 8 - semente: 42 - otimizador: Use OptimizerNames.ADAMW_TORCH_FUSED com betas=(0.9,0.999) e epsilon=1e-08 e optimizer_args=Sem argumentos adicionais para o otimizador - tipo_de_scheduler_lr: linear - numero_de_epocas: 3 - treinamento_com_precisao_mista: AMP Nativo ### Versões do framework - Transformers 4.56.2 - Pytorch 2.8.0+cu126 - Datasets 4.0.0 - Tokenizers 0.22.1 ### Limitações encontradas Limitações de Treinamento O treinamento deste modelo de inteligência artificial via CPU (unidade de processamento central) é inviável devido a limitações de hardware. A arquitetura da CPU é otimizada para tarefas sequenciais e de propósito geral, enquanto o treinamento de modelos de linguagem de grande escala exige um processamento massivo em paralelo. O aviso de erro em plataformas que rodam códigos python, como o Google Colab: ```'pin_memory' argument is set as true but no accelerator is found... ``` sinaliza que o ambiente de treinamento não encontrou um acelerador, como uma GPU (unidade de processamento gráfico) ou TPU. Sem um acelerador, o processo: - Atinge lentidão extrema: Um treinamento que levaria horas em uma GPU pode se estender por semanas ou meses na CPU. - Gera custos elevados: O tempo de computação e o consumo de energia tornam o processo financeiramente insustentável a longo prazo. - Recomenda-se enfaticamente o uso de um ambiente com aceleração por GPU para qualquer tentativa de treinamento ou ajuste fino do modelo. ### 📄 Licença Este modelo está disponível sob a licença MIT. Uso livre para fins educacionais e não comerciais. Para aplicações comerciais, recomenda-se consultar o desenvolvedor. ### ✒️ Autor Desenvolvido por [Wilder Paz](https://huggingface.co/wpbcpaz) Projeto original em desenvolvimento: [Plano de Treino Semanal com IA](https://wilderpaz.github.io/plano-de-treino-semanal/) desenvolvido com Htmls, Vanilla JS, Tailwind CSS e Gemini IA