license: mit
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
dataset_info:
features:
- name: sentence
dtype: string
- name: word
dtype: string
- name: bigram
dtype: string
splits:
- name: train
num_bytes: 586050
num_examples: 6394
download_size: 380897
dataset_size: 586050
task_categories:
- text-generation
language:
- en
tags:
- linguistics
- text_processing
pretty_name: harry potter dataset
size_categories:
- 10K<n<100K
Статистический анализ и визуализация
Описание
Данный датасет представляет результат статистического анализа текста книги "Harry Potter and the Philosopher's Stone", выполненного с использованием различных методов обработки естественного языка. В процессе анализа были проведены три ключевых типа анализа:
- Анализ уникальности данных: Оценка доли уникальных слов в корпусе текста и вычисление коэффициента лексического разнообразия.
- Анализ частоты POS-тегов: Изучение частоты встречаемости грамматических категорий (частей речи) в тексте.
- TF-IDF анализ: Определение ключевых слов в тексте с помощью метрики TF-IDF, что помогает выделить наиболее значимые термины.
1. Анализ уникальности данных
Этот анализ позволил изучить, насколько разнообразен текст с точки зрения лексики, с фокусом на:
- Долю уникальных слов: Какую часть от общего количества слов составляют уникальные слова.
- Коэффициент лексического разнообразия (TTR): Это отношение числа уникальных слов к общему количеству слов в тексте, что дает представление о разнообразии используемой лексики.
Выводы: Анализ показал, что текст имеет тносительно низкий показатель для большинства текстов. Он может свидетельствовать о том, что текст содержит много повторяющихся слов, и возможно, включает в себя большое количество стоп-слов или слов, используемых часто в повторяющихся контекстах.
2. Анализ частоты POS-тегов
Этот анализ был проведен с использованием библиотеки Spacy для извлечения грамматических категорий (частей речи) текста, что позволяет понять, как часто используются различные части речи (например, существительные, глаголы, прилагательные и т. д.).
Выводы: Частотный анализ POS-тегов помог выявить наиболее часто встречающиеся части речи, что может дать представление о структуре текста. Например, доминирование существительных и глаголов может указывать на более фактический или описательный характер текста.
- Пунктуация (PUNCT) на первом месте — это обычное явление, если текст сложный или включает длинные предложения с множеством зависимых элементов.
- Глаголы (VERB) и существительные (NOUN) занимают высокие позиции, что говорит о динамичности текста и активном описании событий или объектов.
- Местоимения (PRON) также в топе, что может говорить о высоком уровне повторяемости понятий и объектов, о которых уже говорилось в тексте.
- Предлоги (ADP) свидетельствуют о наличии сложных отношений между словами в предложении.
3. TF-IDF анализ
Используя метрику TF-IDF (Term Frequency-Inverse Document Frequency), был проведен анализ ключевых слов в тексте. Этот метод помогает выделить наиболее важные и значимые слова, игнорируя часто встречающиеся, но не информативные термины (например, стоп-слова).
Выводы: TF-IDF анализ помог определить топовые ключевые слова в тексте, что может быть полезно для дальнейшей классификации или извлечения информации из текста. Тренды, выявленные с помощью TF-IDF, отражают важнейшие термины, которые характеризуют содержание текста.
Визуализация
- Гистограмма частоты слов: Гистограмма, отображающая 20 самых частых слов в тексте (без учета стоп-слов). Это позволяет увидеть, какие слова доминируют в тексте и имеют наибольшее значение.
Для более репрезентативной визуализации данных анализа также были построены графики с удаленными стоп-словами:
- Облако слов
Без учета стоп-слов:
- Облако ключевых слов: Облако слов, созданное на основе анализа TF-IDF, помогает визуализировать наиболее важные слова, выделенные в тексте, что дает наглядное представление о ключевых терминах.
Без учета стоп-слов:





