Link1-270M / README.md
mariusjabami's picture
Update README.md
aaf0e7a verified
---
base_model:
- lxcorp/Link1-270M
license: cc
tags:
- Link
- custom
- mariusjabami
pipeline_tag: text-generation
library_name: transformers
extra_gated_heading: Acesse o Link no Hugging Face
extra_gated_prompt: >-
Para acessar o X no Hugging Face, é necessário revisar e concordar com a
licença de uso da lxcorp. Certifique-se de estar logado no Hugging Face e
clique abaixo. As solicitações são processadas imediatamente.
extra_gated_button_content: Reconhecer licença
---
# Model Card do X
**Página do Modelo**: [X](https://huggingface.co/lxcorp/Link1-270M)
**Autores**: lxcorp
## Informações do Modelo
Resumo do modelo e definição dos inputs e outputs.
### Descrição
Link é um modelo leve e de última geração desenvolvido pela lxcorp, baseado na arquitetura Gemma-3.
Ele processa entrada de texto e gera saída de texto. Seu tamanho relativamente pequeno permite uso em ambientes com recursos limitados, como laptops, desktops ou na nuvem, democratizando o acesso a modelos de IA.
### Entradas e Saídas
- **Entrada:**
- Texto, como pergunta, prompt ou documento a ser resumido
- Contexto máximo de entrada: 32.000 tokens (escala semelhante ao Gemma-3 270M)
- **Saída:**
- Texto gerado em resposta à entrada
- Contexto máximo de saída: 32.000 tokens por requisição, subtraindo os tokens de entrada
### Citação
```none
@article{Link_2026,
title={Link},
url={https://huggingface.co/lxcorp/Link1-270M},
publisher={lxcorp},
author={lxcorp},
year={2026}
}
```
## Dados do Modelo
Informações sobre os dados usados no treinamento e processamento.
### Dataset de Treinamento
O Link foi treinado com uma combinação de textos da web, código, matemática e recursos multimodais abertos. Data de corte do conhecimento: Janeiro de 2026. Componentes principais:
- Textos da Web: conteúdo diversificado em múltiplos idiomas
- Código: padrões e sintaxe de linguagens de programação
- Matemática: raciocínio lógico e representação simbólica
- Imagens: opcionais para recursos multimodais (se aplicável)
### Pré-processamento dos Dados
- Filtragem rigorosa de CSAM e dados sensíveis
- Filtragem baseada em qualidade e segurança, conforme políticas da lxcorp
## Implementação
### Hardware
Treinamento realizado em recursos GPU/TPU adequados para modelos de escala 270M.
### Software
Treinamento realizado com JAX e Transformers.
O modelo segue arquitetura Gemma-3 com 18 camadas, 4 cabeças de atenção e dimensão oculta de 640.
## Avaliação
Métricas de avaliação adaptadas de benchmarks de pequena escala.
### Resultados de Benchmark (exemplo)
| Benchmark | n-shot | X 270M |
|-----------|--------|--------|
| HellaSwag | 0-shot | 37.7 |
| BoolQ | 0-shot | 61.4 |
| PIQA | 0-shot | 67.7 |
| TriviaQA | 5-shot | 15.4 |
| ARC-c | 25-shot| 29.0 |
| ARC-e | 0-shot | 57.7 |
| WinoGrande| 5-shot | 52.0 |
## Ética e Segurança
A avaliação inclui testes estruturados e verificações internas para garantir o uso seguro do Link.