| --- |
| license: apache-2.0 |
| datasets: |
| - wikimedia/wikipedia |
| - HuggingFaceFW/fineweb-edu |
| language: |
| - en |
| - pt |
| pipeline_tag: text-generation |
| --- |
| # MicroLM-1M |
| O MicroLM-1M é um modelo de IA treinado do zero com 1 milhão de parâmetros e 500 milhões de tokens de dados de treinamento. |
| ## Créditos |
| Este modelo foi treinado com dados provenientes de dois conjuntos de dados públicos: Wikipedia e FineWeb-Edu. |
| A Wikipedia é licenciada sob CC BY-SA 3.0, e o FineWeb-Edu sob a licença ODC-BY 1.0. |
| Este modelo não armazena nem reproduz os dados de treinamento de forma literal. Em vez disso, ele aprende representações estatísticas a partir dos padrões presentes nos dados. |