eda-llm-beAnalityc / README.md
beAnalytic's picture
Update README.md
bd04785 verified
metadata
language: pt
license: apache-2.0
tags:
  - llm
  - instruct
  - qwen
  - fine-tuned
  - eda
  - data-analysis
pipeline_tag: text-generation
base_model: Qwen/Qwen2.5-1.5B-Instruct
library_name: transformers

🧠 EDA LLM – BeAnalytic

Modelo fine-tuned completo (merged) a partir do Qwen2.5-1.5B-Instruct, originalmente treinado com LoRA e posteriormente merged para análise exploratória de dados (EDA), métricas, insights e explicações analíticas em linguagem natural.

✨ Características

  • Modelo merged completo: Não requer PEFT/LoRA para uso
  • Especializado em EDA: Treinado especificamente para análise exploratória de dados
  • Português brasileiro: Otimizado para respostas em português
  • Leve e eficiente: Baseado no Qwen2.5-1.5B-Instruct (1.5 bilhões de parâmetros)

🚀 Uso rápido

Carregamento direto (sem PEFT)

from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline

model_id = "beAnalytic/eda-llm-beAnalityc"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)

pipe = pipeline(
    "text-generation",
    model=model,
    tokenizer=tokenizer
)

messages = [
    {"role": "system", "content": "Você é um assistente especialista em análise de dados."},
    {"role": "user", "content": "Explique o que é uma análise exploratória de dados."}
]

output = pipe(messages, max_new_tokens=300)
print(output[0]["generated_text"])

Usando Hugging Face Inference Endpoints

from huggingface_hub import InferenceClient

client = InferenceClient(
    endpointUrl="https://s7yhxfifh79q686l.us-east4.gcp.endpoints.huggingface.cloud"
)

response = client.text_generation(
    prompt="Explique o que é uma análise exploratória de dados.",
    max_new_tokens=300,
    temperature=0.2
)

print(response)

📊 Casos de uso

  • Geração automática de insights a partir de dados
  • Explicação de métricas estatísticas
  • Análise exploratória de dados (EDA)
  • Interpretação de visualizações
  • Recomendações de análise de dados

🔧 Requisitos

pip install transformers torch accelerate

📝 Notas

Este modelo foi criado através de fine-tuning com LoRA e posteriormente merged com o modelo base. O modelo merged pode ser usado diretamente sem a biblioteca PEFT, facilitando o deploy em produção.