|
|
--- |
|
|
license: mit |
|
|
task_categories: |
|
|
- text-generation |
|
|
- feature-extraction |
|
|
- text-classification |
|
|
language: |
|
|
- hi |
|
|
- en |
|
|
tags: |
|
|
- hindiwikipedia |
|
|
- hiwiki |
|
|
- hindi |
|
|
- english |
|
|
- noisy-to-clean |
|
|
- text-cleaning |
|
|
- aadimind |
|
|
- ADITYA |
|
|
pretty_name: THE SONA CORPUS |
|
|
size_categories: |
|
|
- 100K<n<1M |
|
|
--- |
|
|
|
|
|
# THE SONA CORPUS — Noisy-to-Clean Hindi–English Parallel Dataset |
|
|
|
|
|
A clean, bilingual dataset card you can read at a glance and use immediately. |
|
|
|
|
|
- Curated by: Aditya (AADIMIND) |
|
|
- Languages: Hindi, English |
|
|
- Total examples: 581312 (INPUT: 256 TOKEN• TARGET: 256 TOKEN) |
|
|
- Tasks: Text cleaning, GEC, OCR post-processing, Seq2Seq fine-tuning |
|
|
- License: MIT |
|
|
- Source: Hindi Wikipedia (HiWiki) processed into noisy–clean pairs |
|
|
- Repo: https://huggingface.co/datasets/AADIMIND/sona-corpus |
|
|
|
|
|
--- |
|
|
|
|
|
## Overview |
|
|
|
|
|
THE SONA CORPUS is a parallel dataset of noisy inputs and their cleaned/corrected targets in Hindi and English. It’s built for models that transform imperfect text (typos, OCR errors, informal writing) into clean, standardized text. |
|
|
|
|
|
- Input: Noisy text (with errors) |
|
|
- Target: Corrected / clean text |
|
|
- Great for: Seq2Seq training, GEC, OCR post-processing, text normalization |
|
|
|
|
|
--- |
|
|
|
|
|
## Dataset Structure |
|
|
|
|
|
- Columns: |
|
|
- input_text: string (noisy text) |
|
|
- target_text: string (clean/corrected text) |
|
|
|
|
|
- SIZE OF DATA: |
|
|
- TRAIN LINES OF DATASET: 581312 |
|
|
|
|
|
- INPUT: 256 TOKEN |
|
|
|
|
|
- TARGET: 256 TOKEN |
|
|
|
|
|
--- |
|
|
|
|
|
## Data Sources and Creation |
|
|
|
|
|
- Source data: Hindi Wikipedia dump (HiWiki) |
|
|
- Processing: |
|
|
- Extracted sentences from HiWiki |
|
|
- Added artificial noise and OCR-like errors |
|
|
- Aligned with manually cleaned target text |
|
|
- Annotations: Expert-generated (Aditya); manual cleaning + selective automated scripts |
|
|
|
|
|
--- |
|
|
|
|
|
## Intended Uses |
|
|
|
|
|
- Direct: |
|
|
- Train encoder–decoder (Seq2Seq) models for Hindi text correction |
|
|
- Benchmark for noisy-to-clean conversion |
|
|
- OCR post-processing and spell correction |
|
|
- Out-of-scope: |
|
|
- Conversational chatbot training |
|
|
- Sensitive/private data processing |
|
|
|
|
|
--- |
|
|
|
|
|
## Limitations and Notes |
|
|
|
|
|
- Domain: Primarily Wikipedia-style text; limited colloquial/code-mixed coverage |
|
|
- Generalization: May require adaptation for social-media style, heavy code-mixing, or domain-specific jargon |
|
|
- License note: If source content includes Wikipedia text (CC BY-SA), ensure compliance with attribution and share-alike requirements when redistributing derivatives |
|
|
|
|
|
--- |
|
|
|
|
|
## How to Use |
|
|
|
|
|
```python |
|
|
from datasets import load_dataset |
|
|
|
|
|
dataset = load_dataset("AADIMIND/sona-corpus") |
|
|
|
|
|
# 95% train और 5% validation split |
|
|
dataset = dataset["train"].train_test_split(test_size=0.05) |
|
|
|
|
|
train_data = dataset["train"] |
|
|
val_data = dataset["test"] |
|
|
|
|
|
print(train_data[0]) |
|
|
print(val_data[0]) |
|
|
|
|
|
``` |
|
|
|
|
|
Model training tip: |
|
|
- For encoder–decoder models (e.g., T5, mT5), concatenate language/task prompts if helpful (e.g., "gec: <text>"). |
|
|
- Evaluate with normalization-aware metrics (e.g., chrF, token-level accuracy, or edit distance). |
|
|
|
|
|
--- |
|
|
|
|
|
## Citation |
|
|
|
|
|
BibTeX: |
|
|
```bibtex |
|
|
@misc{aadimind-sona-corpus-2025, |
|
|
title={THE SONA CORPUS: Noisy-to-Clean Hindi-English Text Dataset}, |
|
|
author={Aditya}, |
|
|
year={2025}, |
|
|
howpublished={\url{https://huggingface.co/datasets/AADIMIND/sona-corpus}} |
|
|
} |
|
|
``` |
|
|
|
|
|
APA: |
|
|
Aditya. (2025). THE SONA CORPUS: Noisy-to-Clean Hindi-English Text Dataset. Hugging Face. https://huggingface.co/datasets/AADIMIND/sona-corpus |
|
|
|
|
|
--- |
|
|
|
|
|
## Maintainer |
|
|
|
|
|
- Aditya (AADIMIND) |
|
|
- Contact: https://huggingface.co/AADIMIND |
|
|
- EMAIL : AK332575@GMAIL.COM |
|
|
- INSTAGRAM : @thinker.aditya |
|
|
--- |
|
|
|
|
|
# THE SONA CORPUS — डेटासेट कार्ड (हिंदी) |
|
|
|
|
|
- क्यूरेटर: आदित्य (AADIMIND) |
|
|
- भाषाएँ: हिंदी, अंग्रेज़ी |
|
|
- कुल उदाहरण: 38,497 (ट्रेन: 36,572 • वैलिडेशन: 1,925) |
|
|
- कार्य: टेक्स्ट क्लीनिंग, GEC, OCR पोस्ट-प्रोसेसिंग, Seq2Seq फाइन-ट्यूनिंग |
|
|
- लाइसेंस: MIT |
|
|
- स्रोत: हिंदी विकिपीडिया (HiWiki) से प्रोसेस्ड नॉइज़ी–क्लीन पेयर्स |
|
|
- रिपो: https://huggingface.co/datasets/AADIMIND/sona-corpus |
|
|
|
|
|
--- |
|
|
|
|
|
## परिचय |
|
|
|
|
|
THE SONA CORPUS में नॉइज़ी इनपुट और उनके साफ/सही (करेक्टेड) टारगेट पेयर्स हैं। इसका उद्देश्य ऐसे मॉडल ट्रेन करना है जो गलत/अधूरा टेक्स्ट (टाइपो, OCR त्रुटियाँ, अनौपचारिक लेखन) को मानकीकृत, साफ टेक्स्ट में बदल सकें। |
|
|
|
|
|
- इनपुट: नॉइज़ी टेक्स्ट (त्रुटियों सहित) |
|
|
- टारगेट: साफ/सही किया हुआ टेक्स्ट |
|
|
- उपयोग: Seq2Seq प्रशिक्षण, GEC, OCR पोस्ट-प्रोसेसिंग, टेक्स्ट नॉर्मलाइज़ेशन |
|
|
|
|
|
--- |
|
|
|
|
|
## डेटासेट संरचना |
|
|
|
|
|
- कॉलम: |
|
|
- input_text: string (नॉइज़ी टेक्स्ट) |
|
|
- target_text: string (क्लीन/करेक्टेड टेक्स्ट) |
|
|
|
|
|
- स्प्लिट्स: |
|
|
- ट्रेन: 36,572 |
|
|
- वैलिडेशन: 1,925 |
|
|
- कुल: 38,497 |
|
|
|
|
|
--- |
|
|
|
|
|
## स्रोत और निर्माण |
|
|
|
|
|
- स्रोत डेटा: हिंदी विकिपीडिया (HiWiki) |
|
|
- प्रोसेस: |
|
|
- HiWiki से वाक्य निकाले गए |
|
|
- कृत्रिम नॉइज़ व OCR-जैसी त्रुटियाँ जोड़ी गईं |
|
|
- मैन्युअल रूप से साफ/करेक्टेड टारगेट के साथ एलाइन किया गया |
|
|
- एनोटेशन: विशेषज्ञ (आदित्य) द्वारा—मैन्युअल क्लीनिंग + चयनित ऑटो स्क्रिप्ट्स |
|
|
|
|
|
--- |
|
|
|
|
|
## उपयोग |
|
|
|
|
|
- सीधे उपयोग: |
|
|
- हिंदी टेक्स्ट करेक्शन के लिए एन्कोडर–डिकोडर (Seq2Seq) मॉडल ट्रेनिंग |
|
|
- नॉइज़ी-टू-क्लीन कन्वर्ज़न के लिए बेंचमार्क |
|
|
- OCR पोस्ट-प्रोसेसिंग और स्पेल करेक्शन |
|
|
- अनुपयुक्त: |
|
|
- बातचीत-आधारित चैटबॉट ट्रेनिंग |
|
|
- संवेदनशील/निजी डेटा प्रोसेसिंग |
|
|
|
|
|
--- |
|
|
|
|
|
## सीमाएँ और नोट्स |
|
|
|
|
|
- डोमेन: मुख्यतः विकिपीडिया-शैली; बोलचाल/कोड-मिक्स्ड कंटेंट का सीमित प्रतिनिधित्व |
|
|
- सामान्यीकरण: सोशल मीडिया-स्टाइल, भारी कोड-मिक्सिंग या विशिष्ट डोमेन जार्गन के लिए अतिरिक्त अनुकूलन अपेक्षित |
|
|
- लाइसेंस नोट: यदि स्रोत में विकिपीडिया टेक्स्ट (CC BY-SA) शामिल है/से व्युत्पन्न है, तो पुनर्वितरण में एट्रिब्यूशन और शेयर-अलाइक शर्तों का पालन सुनिश्चित करें |
|
|
|
|
|
--- |
|
|
|
|
|
## उपयोग कैसे करें |
|
|
|
|
|
```python |
|
|
from datasets import load_dataset |
|
|
|
|
|
dataset = load_dataset("AADIMIND/sona-corpus") |
|
|
|
|
|
# 95% train और 5% validation split |
|
|
dataset = dataset["train"].train_test_split(test_size=0.05) |
|
|
|
|
|
train_data = dataset["train"] |
|
|
val_data = dataset["test"] |
|
|
|
|
|
print(train_data[0]) |
|
|
print(val_data[0]) |
|
|
|
|
|
``` |
|
|
|
|
|
ट्रेनिंग सुझाव: |
|
|
- T5/mT5 जैसे मॉडलों के लिए टास्क/भाषा प्रॉम्प्ट जोड़ना लाभकारी हो सकता है (जैसे, "gec: <text>"). |
|
|
- मूल्यांकन में chrF, टोकन-स्तरीय एक्यूरेसी या एडिट-डिस्टेंस जैसे मेट्रिक उपयोगी हैं। |
|
|
|
|
|
--- |
|
|
|
|
|
## उद्धरण |
|
|
|
|
|
BibTeX: |
|
|
```bibtex |
|
|
@misc{aadimind-sona-corpus-2025, |
|
|
title={THE SONA CORPUS: Noisy-to-Clean Hindi-English Text Dataset}, |
|
|
author={Aditya}, |
|
|
year={2025}, |
|
|
howpublished={\url{https://huggingface.co/datasets/AADIMIND/sona-corpus}} |
|
|
} |
|
|
``` |
|
|
|
|
|
APA: |
|
|
आदित्य. (2025). THE SONA CORPUS: Noisy-to-Clean Hindi-English Text Dataset. Hugging Face. https://huggingface.co/datasets/AADIMIND/sona-corpus |
|
|
|
|
|
--- |