| | --- |
| | base_model: |
| | - lxcorp/Link1-270M |
| | license: cc |
| | tags: |
| | - Link |
| | - custom |
| | - mariusjabami |
| | pipeline_tag: text-generation |
| | library_name: transformers |
| | extra_gated_heading: Acesse o Link no Hugging Face |
| | extra_gated_prompt: >- |
| | Para acessar o X no Hugging Face, é necessário revisar e concordar com a |
| | licença de uso da lxcorp. Certifique-se de estar logado no Hugging Face e |
| | clique abaixo. As solicitações são processadas imediatamente. |
| | extra_gated_button_content: Reconhecer licença |
| | --- |
| | |
| | # Model Card do X |
| |
|
| | **Página do Modelo**: [X](https://huggingface.co/lxcorp/Link1-270M) |
| |
|
| | **Autores**: lxcorp |
| |
|
| | ## Informações do Modelo |
| |
|
| | Resumo do modelo e definição dos inputs e outputs. |
| |
|
| | ### Descrição |
| |
|
| | Link é um modelo leve e de última geração desenvolvido pela lxcorp, baseado na arquitetura Gemma-3. |
| | Ele processa entrada de texto e gera saída de texto. Seu tamanho relativamente pequeno permite uso em ambientes com recursos limitados, como laptops, desktops ou na nuvem, democratizando o acesso a modelos de IA. |
| |
|
| | ### Entradas e Saídas |
| |
|
| | - **Entrada:** |
| | - Texto, como pergunta, prompt ou documento a ser resumido |
| | - Contexto máximo de entrada: 32.000 tokens (escala semelhante ao Gemma-3 270M) |
| | - **Saída:** |
| | - Texto gerado em resposta à entrada |
| | - Contexto máximo de saída: 32.000 tokens por requisição, subtraindo os tokens de entrada |
| |
|
| | ### Citação |
| |
|
| | ```none |
| | @article{Link_2026, |
| | title={Link}, |
| | url={https://huggingface.co/lxcorp/Link1-270M}, |
| | publisher={lxcorp}, |
| | author={lxcorp}, |
| | year={2026} |
| | } |
| | ``` |
| |
|
| | ## Dados do Modelo |
| |
|
| | Informações sobre os dados usados no treinamento e processamento. |
| |
|
| | ### Dataset de Treinamento |
| |
|
| | O Link foi treinado com uma combinação de textos da web, código, matemática e recursos multimodais abertos. Data de corte do conhecimento: Janeiro de 2026. Componentes principais: |
| |
|
| | - Textos da Web: conteúdo diversificado em múltiplos idiomas |
| | - Código: padrões e sintaxe de linguagens de programação |
| | - Matemática: raciocínio lógico e representação simbólica |
| | - Imagens: opcionais para recursos multimodais (se aplicável) |
| |
|
| | ### Pré-processamento dos Dados |
| |
|
| | - Filtragem rigorosa de CSAM e dados sensíveis |
| | - Filtragem baseada em qualidade e segurança, conforme políticas da lxcorp |
| |
|
| | ## Implementação |
| |
|
| | ### Hardware |
| |
|
| | Treinamento realizado em recursos GPU/TPU adequados para modelos de escala 270M. |
| |
|
| | ### Software |
| |
|
| | Treinamento realizado com JAX e Transformers. |
| | O modelo segue arquitetura Gemma-3 com 18 camadas, 4 cabeças de atenção e dimensão oculta de 640. |
| |
|
| | ## Avaliação |
| |
|
| | Métricas de avaliação adaptadas de benchmarks de pequena escala. |
| |
|
| | ### Resultados de Benchmark (exemplo) |
| |
|
| | | Benchmark | n-shot | X 270M | |
| | |-----------|--------|--------| |
| | | HellaSwag | 0-shot | 37.7 | |
| | | BoolQ | 0-shot | 61.4 | |
| | | PIQA | 0-shot | 67.7 | |
| | | TriviaQA | 5-shot | 15.4 | |
| | | ARC-c | 25-shot| 29.0 | |
| | | ARC-e | 0-shot | 57.7 | |
| | | WinoGrande| 5-shot | 52.0 | |
| |
|
| | ## Ética e Segurança |
| |
|
| | A avaliação inclui testes estruturados e verificações internas para garantir o uso seguro do Link. |