wpbcpaz's picture
Update README.md
4203522 verified
metadata
tags:
  - chatbot
  - treino
  - nutrição
  - fitness
  - português
  - distilgpt2
language: pt
license: mit
datasets:
  - wpbcpaz/fitness-chatbot-dataset
metrics:
  - perplexity
model-index:
  - name: Fitness Chatbot Model
    results:
      - task:
          type: text-generation
          name: Geração de texto
        dataset:
          name: Fitness Chatbot Dataset
          type: custom
        metrics:
          - name: Perplexity
            type: perplexity
            value: 12.3

Capa do Chatbot

🏋️ Chatbot de Treino e Nutrição

Este modelo foi treinado para atuar como um assistente virtual especializado em educação física e nutrição, com foco em iniciantes que desejam montar planos de treino e dieta personalizados.


📚 Dataset

O modelo foi treinado com um conjunto de dados customizado contendo perguntas e respostas sobre:

  • Treinos semanais para diferentes níveis
  • Dietas para emagrecimento, hipertrofia e manutenção
  • Restrições alimentares (vegetarianismo, intolerância à lactose)
  • Recomendações de frequência, recuperação e mobilidade

Formato: JSONL com campos "input" e "output"
Repositório do dataset: wpbcpaz/fitness-chatbot-dataset


🧠 Modelo

  • Base: distilgpt2
  • Tipo: Causal Language Model
  • Idioma: Português
  • Tamanho: Leve, ideal para aplicações web e mobile

🎯 Aplicações

  • Chatbots para academias ou apps de saúde
  • Interfaces conversacionais em sites
  • Ferramentas de onboarding para novos praticantes
  • Assistentes virtuais para planos alimentares básicos

🧪 Como usar

from transformers import AutoTokenizer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("wpbcpaz/fitness-chatbot-model")
tokenizer = AutoTokenizer.from_pretrained("wpbcpaz/fitness-chatbot-model")

input_text = "Usuário: Tenho 30 anos, treino 4x por semana e quero ganhar massa muscular.\nChatbot:"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0]))

Hiperparâmetros de treinamento

Os seguintes hiperparâmetros foram utilizados durante o treinamento:

  • taxa_de_aprendizado: 5e-05
  • tamanho_do_lote_treinamento: 4
  • tamanho_do_lote_avaliacao: 8
  • semente: 42
  • otimizador: Use OptimizerNames.ADAMW_TORCH_FUSED com betas=(0.9,0.999) e epsilon=1e-08 e optimizer_args=Sem argumentos adicionais para o otimizador
  • tipo_de_scheduler_lr: linear
  • numero_de_epocas: 3
  • treinamento_com_precisao_mista: AMP Nativo

Versões do framework

  • Transformers 4.56.2
  • Pytorch 2.8.0+cu126
  • Datasets 4.0.0
  • Tokenizers 0.22.1

Limitações encontradas

Limitações de Treinamento O treinamento deste modelo de inteligência artificial via CPU (unidade de processamento central) é inviável devido a limitações de hardware. A arquitetura da CPU é otimizada para tarefas sequenciais e de propósito geral, enquanto o treinamento de modelos de linguagem de grande escala exige um processamento massivo em paralelo.

O aviso de erro em plataformas que rodam códigos python, como o Google Colab: 'pin_memory' argument is set as true but no accelerator is found... sinaliza que o ambiente de treinamento não encontrou um acelerador, como uma GPU (unidade de processamento gráfico) ou TPU. Sem um acelerador, o processo:

  • Atinge lentidão extrema: Um treinamento que levaria horas em uma GPU pode se estender por semanas ou meses na CPU.

  • Gera custos elevados: O tempo de computação e o consumo de energia tornam o processo financeiramente insustentável a longo prazo.

  • Recomenda-se enfaticamente o uso de um ambiente com aceleração por GPU para qualquer tentativa de treinamento ou ajuste fino do modelo.

📄 Licença

Este modelo está disponível sob a licença MIT. Uso livre para fins educacionais e não comerciais. Para aplicações comerciais, recomenda-se consultar o desenvolvedor.

✒️ Autor

Desenvolvido por Wilder Paz
Projeto original em desenvolvimento: Plano de Treino Semanal com IA desenvolvido com Htmls, Vanilla JS, Tailwind CSS e Gemini IA