Datasets:
File size: 8,245 Bytes
2c607e7 05780a8 2c607e7 08737a1 2c607e7 05780a8 2c607e7 5d861f3 2c607e7 08737a1 2c607e7 05780a8 2c607e7 05780a8 8dbf4be 2c607e7 05780a8 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 | ---
license: cdla-permissive-2.0
language:
- en
- pt
- es
- fr
- de
- ja
- ar
- multilingual
size_categories:
- 100M<n<1B
task_categories:
- text-classification
tags:
- community-notes
- twitter
- x
- birdwatch
- consensus
- fact-checking
- misinformation
- brazilian-politics
- digital-humanities
pretty_name: "Community Notes / X — Snapshot Público"
configs:
- config_name: silver_notes
data_files: "data/snapshot_date=*/silver_notes/*.parquet"
- config_name: silver_ratings
data_files: "data/snapshot_date=*/silver_ratings/*.parquet"
- config_name: silver_user_enrollment
data_files: "data/snapshot_date=*/silver_user_enrollment/*.parquet"
- config_name: silver_note_status_history
data_files: "data/snapshot_date=*/silver_note_status_history/*.parquet"
- config_name: silver_note_requests
data_files: "data/snapshot_date=*/silver_note_requests/*.parquet"
- config_name: tweet_note_bridge
data_files: "data/snapshot_date=*/tweet_note_bridge/*.parquet"
- config_name: ratings_with_contributor_state
data_files: "data/snapshot_date=*/ratings_with_contributor_state/*.parquet"
---
# Community Notes / X — Snapshot Público
Dataset estruturado a partir dos dumps públicos do sistema [Community Notes](https://communitynotes.x.com/) (antigo Birdwatch) da plataforma X (antigo Twitter).
## Motivação
O Community Notes é um sistema de moderação colaborativa onde usuários voluntários escrevem notas contextuais sobre publicações potencialmente enganosas e avaliam as notas de outros participantes. Um algoritmo de consenso determina quais notas são exibidas publicamente. Este dataset preserva a estrutura relacional completa do dump público para viabilizar pesquisas sobre a dinâmica desse consenso — em particular sobre como ele opera (ou falha em operar) diante de eventos politicamente sensíveis no contexto brasileiro.
## Importante: dataset multilíngue sem coluna de idioma
O dump público do Community Notes é **global** e contém notas em dezenas de idiomas (majoritariamente inglês). **Não há coluna de idioma** nos dados originais. Pesquisadores interessados em um idioma específico precisarão aplicar detecção de idioma localmente como etapa de pré-processamento.
Uma abordagem recomendada é usar o modelo [fastText lid.176.bin](https://fasttext.cc/docs/en/language-identification.html) da Meta sobre o campo `summary`, que permite classificar milhões de notas em minutos com boa acurácia.
## Estrutura do dataset
```
data/
└── snapshot_date=YYYY-MM-DD/
├── silver_notes/ # Notas escritas por colaboradores
├── silver_ratings/ # Avaliações das notas por outros colaboradores
├── silver_note_status_history/ # Histórico de status (CRH, NMR, etc.)
├── silver_user_enrollment/ # Perfil e estado dos colaboradores
└── silver_note_requests/ # Pedidos de nota (batSignals)
metadata/
└── snapshot_date=YYYY-MM-DD/
├── download_manifest.json # URLs, checksums, tamanhos de cada arquivo
├── schema_registry.json # Colunas por shard (detecção de drift)
├── schema_alerts.parquet # Alertas de mudança de esquema
├── integrity_summary.parquet # Resumo de nulos por tabela
├── orphan_analysis.parquet # Análise de integridade referencial
└── snapshot_inventory.parquet # Inventário completo de arquivos
```
## Tabelas principais
| Tabela | Descrição | Chave primária | Volume (snapshot 2026-04-07) |
|---|---|---|---|
| `silver_notes` | Notas com classificação, resumo e metadados | `noteId` | ~2,6M |
| `silver_ratings` | Avaliações individuais das notas | `noteId` + `raterParticipantId` | ~190M* |
| `silver_note_status_history` | Histórico de status algorítmico | `noteId` | ~2,4M* |
| `silver_user_enrollment` | Cadastro e estado dos avaliadores | `participantId` | ~141k |
| `silver_note_requests` | Sinalizações pedindo notas em tweets | `tweetId` | ~51k |
\* Após remoção de registros órfãos (ver abaixo).
## Relações entre tabelas
```
tweets (externo, não disponível no dump)
│
├── silver_notes (noteId, tweetId)
│ │
│ ├── silver_ratings (noteId, raterParticipantId)
│ │ └── silver_user_enrollment (participantId)
│ │
│ └── silver_note_status_history (noteId)
│
└── silver_note_requests (tweetId)
```
## Pipeline de processamento
Os dados passam por três camadas:
1. **Raw**: arquivos TSV originais do dump público, preservados com checksums MD5 e SHA-256.
2. **Bronze**: ingestão em DuckDB com todas as colunas como `VARCHAR` (sem inferência de tipo), unificando shards via `union_by_name`. Metadados de snapshot e ingestão adicionados.
3. **Silver**: colunas tipadas auxiliares (IDs como `BIGINT`, timestamps derivados de `createdAtMillis`), remoção de registros órfãos.
## Integridade referencial e limitações
O dump público do Community Notes **não contém todas as notas que já existiram**. Isso resulta em registros órfãos: avaliações e eventos de status que referenciam notas ausentes.
No snapshot de 2026-04-07, antes da limpeza:
- **11,36%** dos noteIds em ratings não tinham nota correspondente (~297k notas, ~19M linhas)
- **12,66%** dos noteIds em status não tinham nota correspondente (~348k notas)
- **0%** dos avaliadores eram órfãos (enrollment completo)
**Decisão metodológica**: registros órfãos foram removidos das tabelas silver. A análise completa está em `metadata/orphan_analysis.parquet`. Isso significa que o dataset cobre ~88% do universo de notas avaliadas; os ~12% restantes representam consenso que existiu mas não é observável neste dump.
## Uso rápido
### Via Hugging Face Datasets
```python
from datasets import load_dataset
notas = load_dataset("histlearn/community-notes-br", "silver_notes", split="train")
ratings = load_dataset("histlearn/community-notes-br", "silver_ratings", split="train")
status = load_dataset("histlearn/community-notes-br", "silver_note_status_history", split="train")
```
### Via DuckDB (leitura direta dos Parquets)
```python
import duckdb
con = duckdb.connect()
notas = con.execute("""
SELECT *
FROM 'hf://datasets/histlearn/community-notes-br/data/snapshot_date=2026-04-07/silver_notes/**/*.parquet'
LIMIT 100
""").fetchdf()
```
## Filtragem por idioma (etapa local)
O dataset não inclui classificação de idioma. Para filtrar notas em português, recomendamos:
```python
import fasttext
import re
# Baixar o modelo: https://dl.fbaipublicfiles.com/fasttext/supervised-models/lid.176.bin
model = fasttext.load_model("lid.176.bin")
def detectar_idioma(texto):
if not texto:
return "desconhecido", 0.0
texto = re.sub(r"http\S+", "", texto).replace("\n", " ").strip()
pred = model.predict(texto)
return pred[0][0].replace("__label__", ""), round(float(pred[1][0]), 4)
# Aplicar sobre a coluna 'summary' das notas
# fasttext exige numpy em versão <2
```
## Proveniência
- **Fonte**: https://communitynotes.x.com/guide/en/under-the-hood/download-data
- **Licença dos dados originais**: disponibilizados pelo X sob termos de uso público
- **Pipeline**: código completo disponível no notebook que acompanha este repositório
- **Checksums**: cada arquivo baixado tem MD5 e SHA-256 registrados no manifesto
## Citação
```bibtex
@dataset{community_notes_br_2026,
author = {histlearn},
title = {Community Notes / X — Snapshot Público},
year = {2026},
publisher = {Hugging Face},
url = {https://huggingface.co/datasets/histlearn/community-notes-br}
}
```
## Contexto de pesquisa
Este dataset foi construído como parte de um projeto de pesquisa em humanidades digitais na UFSCar / NILC que investiga como o algoritmo de consenso do Community Notes opera diante de eventos politicamente sensíveis no Brasil — em particular, se casos de grande repercussão e alta ambiguidade geram sistematicamente menos consenso algorítmico do que desinformação mais "simples" (vídeos falsos, manipulação de mídia, etc.). |