text stringlengths 0 128 |
|---|
import re |
import nltk |
from nltk.stem.snowball import SnowballStemmer |
from nltk.tokenize import word_tokenize |
from nltk.corpus import stopwords |
nltk.download('stopwords') |
nltk.download('punkt') |
stemmer = SnowballStemmer("russian") |
stopwords_ru = stopwords.words("russian") |
def to_lowercase(data): |
data = data.lower() |
return data |
def noise_remove(data, remove_numbers=True): |
data = re.sub(r"(\w+:\/\/\S+)", " ", data) |
data = re.sub(r"([^0-9А-Яа-я])", " ", data) |
if remove_numbers: |
data = re.sub(r"\d+", " ", data) |
return data |
def stemming(words): |
return [stemmer.stem(word) for word in words] |
def tokenize(text): |
words = text.split() |
for elem in words: |
if len(elem) < 3: |
words.remove(elem) |
stemmed_words = stemming(words) |
return ' '.join(stemmed_words) |
import requests |
from bs4 import BeautifulSoup |
from concurrent.futures import ThreadPoolExecutor |
themes = ['Одежда', 'Животные', 'Политика', 'IT', 'Новости'] |
def get_links(theme): #Сбор ссылок по каждой из тем начиная с главной страницы |
page = requests.get(f'https://habr.com/ru/search/page1/?q={theme}&target_type=posts&order=relevance').text |
page_soup = BeautifulSoup(page, 'html.parser') |
count_pages = int(page_soup.find_all('div', 'tm-pagination__page-group')[-1].text.split()[0]) |
hrefs = [] |
for i in range(1, count_pages + 1): #Перебор страниц со списком статей с 1 по последнюю |
print(i) |
page = requests.get(f'https://habr.com/ru/search/page{i}/?q={theme}&target_type=posts&order=relevance').text |
page_s = BeautifulSoup(page, 'html.parser') |
links = page_s.find_all('article', 'tm-articles-list__item') |
hrefs.extend([f'https://habr.com/ru/news/{link["id"]}/' for link in links]) |
return hrefs #Возвращаем ссылки статей по данной теме |
def get_text(href): #Парсинг текста статьи по кадой ранее собранной ссылке |
print(href) |
try: |
pagex = requests.get(href).text |
page_su = BeautifulSoup(pagex, 'html.parser') |
text = page_su.find_all("div", "article-formatted-body article-formatted-body article-formatted-body_version-1")[0].text |
return text |
except: |
return '' |
all_texts = [] |
for theme in themes: |
print(f'Сбор ссылок по теме {theme} начат') |
hrefs = get_links(theme) |
print(f'Сбор ссылок по теме {theme} закончен') |
with ThreadPoolExecutor() as executor: #Использую распараллеливание для быстрого сбора |
results = list(executor.map(get_text, hrefs)) #Добавляем текст по текущей теме к списку |
all_texts += results #Добавляем тексты по текущей теме к общему списку текстов |
print('Сбор текстов по ссылкам окончен') |
from textblob import TextBlob |
def ngram(data, from_column, to_column, t): |
new_columns = [[], [], []] |
if t == 1: |
for index, row in data.iterrows(): |
ngram_object = TextBlob(row[from_column]) |
unigrams = ngram_object.ngrams(n=1) |
new_columns[0].append(unigrams) |
bigrams = ngram_object.ngrams(n=2) |
new_columns[1].append(bigrams) |
trigrams = ngram_object.ngrams(n=3) |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.