sona-corpus / README.md
AADIMIND's picture
Update README.md
c3c59f6 verified
---
license: mit
task_categories:
- text-generation
- feature-extraction
- text-classification
language:
- hi
- en
tags:
- hindiwikipedia
- hiwiki
- hindi
- english
- noisy-to-clean
- text-cleaning
- aadimind
- ADITYA
pretty_name: THE SONA CORPUS
size_categories:
- 100K<n<1M
---
# THE SONA CORPUS — Noisy-to-Clean Hindi–English Parallel Dataset
A clean, bilingual dataset card you can read at a glance and use immediately.
- Curated by: Aditya (AADIMIND)
- Languages: Hindi, English
- Total examples: 581312 (INPUT: 256 TOKEN• TARGET: 256 TOKEN)
- Tasks: Text cleaning, GEC, OCR post-processing, Seq2Seq fine-tuning
- License: MIT
- Source: Hindi Wikipedia (HiWiki) processed into noisy–clean pairs
- Repo: https://huggingface.co/datasets/AADIMIND/sona-corpus
---
## Overview
THE SONA CORPUS is a parallel dataset of noisy inputs and their cleaned/corrected targets in Hindi and English. It’s built for models that transform imperfect text (typos, OCR errors, informal writing) into clean, standardized text.
- Input: Noisy text (with errors)
- Target: Corrected / clean text
- Great for: Seq2Seq training, GEC, OCR post-processing, text normalization
---
## Dataset Structure
- Columns:
- input_text: string (noisy text)
- target_text: string (clean/corrected text)
- SIZE OF DATA:
- TRAIN LINES OF DATASET: 581312
- INPUT: 256 TOKEN
- TARGET: 256 TOKEN
---
## Data Sources and Creation
- Source data: Hindi Wikipedia dump (HiWiki)
- Processing:
- Extracted sentences from HiWiki
- Added artificial noise and OCR-like errors
- Aligned with manually cleaned target text
- Annotations: Expert-generated (Aditya); manual cleaning + selective automated scripts
---
## Intended Uses
- Direct:
- Train encoder–decoder (Seq2Seq) models for Hindi text correction
- Benchmark for noisy-to-clean conversion
- OCR post-processing and spell correction
- Out-of-scope:
- Conversational chatbot training
- Sensitive/private data processing
---
## Limitations and Notes
- Domain: Primarily Wikipedia-style text; limited colloquial/code-mixed coverage
- Generalization: May require adaptation for social-media style, heavy code-mixing, or domain-specific jargon
- License note: If source content includes Wikipedia text (CC BY-SA), ensure compliance with attribution and share-alike requirements when redistributing derivatives
---
## How to Use
```python
from datasets import load_dataset
dataset = load_dataset("AADIMIND/sona-corpus")
# 95% train और 5% validation split
dataset = dataset["train"].train_test_split(test_size=0.05)
train_data = dataset["train"]
val_data = dataset["test"]
print(train_data[0])
print(val_data[0])
```
Model training tip:
- For encoder–decoder models (e.g., T5, mT5), concatenate language/task prompts if helpful (e.g., "gec: <text>").
- Evaluate with normalization-aware metrics (e.g., chrF, token-level accuracy, or edit distance).
---
## Citation
BibTeX:
```bibtex
@misc{aadimind-sona-corpus-2025,
title={THE SONA CORPUS: Noisy-to-Clean Hindi-English Text Dataset},
author={Aditya},
year={2025},
howpublished={\url{https://huggingface.co/datasets/AADIMIND/sona-corpus}}
}
```
APA:
Aditya. (2025). THE SONA CORPUS: Noisy-to-Clean Hindi-English Text Dataset. Hugging Face. https://huggingface.co/datasets/AADIMIND/sona-corpus
---
## Maintainer
- Aditya (AADIMIND)
- Contact: https://huggingface.co/AADIMIND
- EMAIL : AK332575@GMAIL.COM
- INSTAGRAM : @thinker.aditya
---
# THE SONA CORPUS — डेटासेट कार्ड (हिंदी)
- क्यूरेटर: आदित्य (AADIMIND)
- भाषाएँ: हिंदी, अंग्रेज़ी
- कुल उदाहरण: 38,497 (ट्रेन: 36,572 • वैलिडेशन: 1,925)
- कार्य: टेक्स्ट क्लीनिंग, GEC, OCR पोस्ट-प्रोसेसिंग, Seq2Seq फाइन-ट्यूनिंग
- लाइसेंस: MIT
- स्रोत: हिंदी विकिपीडिया (HiWiki) से प्रोसेस्ड नॉइज़ी–क्लीन पेयर्स
- रिपो: https://huggingface.co/datasets/AADIMIND/sona-corpus
---
## परिचय
THE SONA CORPUS में नॉइज़ी इनपुट और उनके साफ/सही (करेक्टेड) टारगेट पेयर्स हैं। इसका उद्देश्य ऐसे मॉडल ट्रेन करना है जो गलत/अधूरा टेक्स्ट (टाइपो, OCR त्रुटियाँ, अनौपचारिक लेखन) को मानकीकृत, साफ टेक्स्ट में बदल सकें।
- इनपुट: नॉइज़ी टेक्स्ट (त्रुटियों सहित)
- टारगेट: साफ/सही किया हुआ टेक्स्ट
- उपयोग: Seq2Seq प्रशिक्षण, GEC, OCR पोस्ट-प्रोसेसिंग, टेक्स्ट नॉर्मलाइज़ेशन
---
## डेटासेट संरचना
- कॉलम:
- input_text: string (नॉइज़ी टेक्स्ट)
- target_text: string (क्लीन/करेक्टेड टेक्स्ट)
- स्प्लिट्स:
- ट्रेन: 36,572
- वैलिडेशन: 1,925
- कुल: 38,497
---
## स्रोत और निर्माण
- स्रोत डेटा: हिंदी विकिपीडिया (HiWiki)
- प्रोसेस:
- HiWiki से वाक्य निकाले गए
- कृत्रिम नॉइज़ व OCR-जैसी त्रुटियाँ जोड़ी गईं
- मैन्युअल रूप से साफ/करेक्टेड टारगेट के साथ एलाइन किया गया
- एनोटेशन: विशेषज्ञ (आदित्य) द्वारा—मैन्युअल क्लीनिंग + चयनित ऑटो स्क्रिप्ट्स
---
## उपयोग
- सीधे उपयोग:
- हिंदी टेक्स्ट करेक्शन के लिए एन्कोडर–डिकोडर (Seq2Seq) मॉडल ट्रेनिंग
- नॉइज़ी-टू-क्लीन कन्वर्ज़न के लिए बेंचमार्क
- OCR पोस्ट-प्रोसेसिंग और स्पेल करेक्शन
- अनुपयुक्त:
- बातचीत-आधारित चैटबॉट ट्रेनिंग
- संवेदनशील/निजी डेटा प्रोसेसिंग
---
## सीमाएँ और नोट्स
- डोमेन: मुख्यतः विकिपीडिया-शैली; बोलचाल/कोड-मिक्स्ड कंटेंट का सीमित प्रतिनिधित्व
- सामान्यीकरण: सोशल मीडिया-स्टाइल, भारी कोड-मिक्सिंग या विशिष्ट डोमेन जार्गन के लिए अतिरिक्त अनुकूलन अपेक्षित
- लाइसेंस नोट: यदि स्रोत में विकिपीडिया टेक्स्ट (CC BY-SA) शामिल है/से व्युत्पन्न है, तो पुनर्वितरण में एट्रिब्यूशन और शेयर-अलाइक शर्तों का पालन सुनिश्चित करें
---
## उपयोग कैसे करें
```python
from datasets import load_dataset
dataset = load_dataset("AADIMIND/sona-corpus")
# 95% train और 5% validation split
dataset = dataset["train"].train_test_split(test_size=0.05)
train_data = dataset["train"]
val_data = dataset["test"]
print(train_data[0])
print(val_data[0])
```
ट्रेनिंग सुझाव:
- T5/mT5 जैसे मॉडलों के लिए टास्क/भाषा प्रॉम्प्ट जोड़ना लाभकारी हो सकता है (जैसे, "gec: <text>").
- मूल्यांकन में chrF, टोकन-स्तरीय एक्यूरेसी या एडिट-डिस्टेंस जैसे मेट्रिक उपयोगी हैं।
---
## उद्धरण
BibTeX:
```bibtex
@misc{aadimind-sona-corpus-2025,
title={THE SONA CORPUS: Noisy-to-Clean Hindi-English Text Dataset},
author={Aditya},
year={2025},
howpublished={\url{https://huggingface.co/datasets/AADIMIND/sona-corpus}}
}
```
APA:
आदित्य. (2025). THE SONA CORPUS: Noisy-to-Clean Hindi-English Text Dataset. Hugging Face. https://huggingface.co/datasets/AADIMIND/sona-corpus
---