Link1-270M / README.md
mariusjabami's picture
Update README.md
aaf0e7a verified
metadata
base_model:
  - lxcorp/Link1-270M
license: cc
tags:
  - Link
  - custom
  - mariusjabami
pipeline_tag: text-generation
library_name: transformers
extra_gated_heading: Acesse o Link no Hugging Face
extra_gated_prompt: >-
  Para acessar o X no Hugging Face, é necessário revisar e concordar com a
  licença de uso da lxcorp. Certifique-se de estar logado no Hugging Face e
  clique abaixo. As solicitações são processadas imediatamente.
extra_gated_button_content: Reconhecer licença

Model Card do X

Página do Modelo: X

Autores: lxcorp

Informações do Modelo

Resumo do modelo e definição dos inputs e outputs.

Descrição

Link é um modelo leve e de última geração desenvolvido pela lxcorp, baseado na arquitetura Gemma-3.
Ele processa entrada de texto e gera saída de texto. Seu tamanho relativamente pequeno permite uso em ambientes com recursos limitados, como laptops, desktops ou na nuvem, democratizando o acesso a modelos de IA.

Entradas e Saídas

  • Entrada:
    • Texto, como pergunta, prompt ou documento a ser resumido
    • Contexto máximo de entrada: 32.000 tokens (escala semelhante ao Gemma-3 270M)
  • Saída:
    • Texto gerado em resposta à entrada
    • Contexto máximo de saída: 32.000 tokens por requisição, subtraindo os tokens de entrada

Citação

@article{Link_2026,
    title={Link},
    url={https://huggingface.co/lxcorp/Link1-270M},
    publisher={lxcorp},
    author={lxcorp},
    year={2026}
}

Dados do Modelo

Informações sobre os dados usados no treinamento e processamento.

Dataset de Treinamento

O Link foi treinado com uma combinação de textos da web, código, matemática e recursos multimodais abertos. Data de corte do conhecimento: Janeiro de 2026. Componentes principais:

  • Textos da Web: conteúdo diversificado em múltiplos idiomas
  • Código: padrões e sintaxe de linguagens de programação
  • Matemática: raciocínio lógico e representação simbólica
  • Imagens: opcionais para recursos multimodais (se aplicável)

Pré-processamento dos Dados

  • Filtragem rigorosa de CSAM e dados sensíveis
  • Filtragem baseada em qualidade e segurança, conforme políticas da lxcorp

Implementação

Hardware

Treinamento realizado em recursos GPU/TPU adequados para modelos de escala 270M.

Software

Treinamento realizado com JAX e Transformers.
O modelo segue arquitetura Gemma-3 com 18 camadas, 4 cabeças de atenção e dimensão oculta de 640.

Avaliação

Métricas de avaliação adaptadas de benchmarks de pequena escala.

Resultados de Benchmark (exemplo)

Benchmark n-shot X 270M
HellaSwag 0-shot 37.7
BoolQ 0-shot 61.4
PIQA 0-shot 67.7
TriviaQA 5-shot 15.4
ARC-c 25-shot 29.0
ARC-e 0-shot 57.7
WinoGrande 5-shot 52.0

Ética e Segurança

A avaliação inclui testes estruturados e verificações internas para garantir o uso seguro do Link.