AFKatz commited on
Commit
4785201
·
verified ·
1 Parent(s): c7c3a95

Update stmegi-parser_x.py

Browse files
Files changed (1) hide show
  1. stmegi-parser_x.py +295 -296
stmegi-parser_x.py CHANGED
@@ -1,297 +1,296 @@
1
- """
2
- Парсер рецептов с сайта STMEGI.COM
3
- """
4
-
5
- import time
6
- import json
7
- import pandas as pd
8
- from datetime import datetime
9
- import requests
10
- from bs4 import BeautifulSoup
11
- from selenium import webdriver
12
- from selenium.webdriver.common.by import By
13
- from selenium.webdriver.support.ui import WebDriverWait
14
- from selenium.webdriver.support import expected_conditions as EC
15
- from selenium.webdriver.chrome.service import Service
16
- from webdriver_manager.chrome import ChromeDriverManager
17
- from selenium.common.exceptions import TimeoutException
18
-
19
-
20
- class StmegiParser:
21
- """Парсер рецептов с сайта STMEGI.com"""
22
-
23
- def __init__(self, headless=True):
24
- """Инициализация с настройками"""
25
- self.setup_selenium(headless)
26
- self.setup_requests()
27
- print("✅ Парсер инициализирован")
28
-
29
- def setup_selenium(self, headless):
30
- """Настройка Selenium для сбора ссылок"""
31
- options = webdriver.ChromeOptions()
32
- if headless:
33
- options.add_argument('--headless')
34
- options.add_argument('--no-sandbox')
35
- options.add_argument('--window-size=1920,1080')
36
-
37
- self.driver = webdriver.Chrome(
38
- service=Service(ChromeDriverManager().install()),
39
- options=options
40
- )
41
-
42
- # Java script для сбора ссылок
43
- self.js_get_links = """
44
- var links = document.querySelectorAll('a[href*="/posts/"]');
45
- var urls = [];
46
- for (var i = 0; i < links.length; i++) {
47
- var href = links[i].href;
48
- if (href && href.includes('/gorskie_evrei/posts/')) {
49
- urls.push(href);
50
- }
51
- }
52
- return [...new Set(urls)];
53
- """
54
-
55
- def setup_requests(self):
56
- """Настройка запросов + BeautifulSoup"""
57
- self.headers = {
58
- 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36'
59
- }
60
-
61
- def collect_all_links(self, url, max_clicks=50):
62
- """Собирает ВСЕ ссылки на рецепты через Selenium"""
63
- print(f"🌐 Открываю: {url}")
64
- self.driver.get(url)
65
- time.sleep(3)
66
-
67
- clicks = 0
68
- last_count = 0
69
-
70
- while clicks < max_clicks:
71
- try:
72
- # Текущее количество ссылок
73
- current_links = self.driver.execute_script(self.js_get_links)
74
- current_count = len(current_links)
75
-
76
- # Проверяем, нужен ли ещё клик
77
- if clicks > 0 and current_count == last_count:
78
- print("✅ Все рецепты загружены")
79
- break
80
-
81
- last_count = current_count
82
-
83
- # Находим и нажимаем кнопку
84
- button = WebDriverWait(self.driver, 5).until(
85
- EC.presence_of_element_located((By.CSS_SELECTOR, "button.btn.btn-blue.btn__load-elements"))
86
- )
87
-
88
- self.driver.execute_script("arguments[0].scrollIntoView({block: 'center'});", button)
89
- time.sleep(1)
90
- self.driver.execute_script("arguments[0].click();", button)
91
-
92
- clicks += 1
93
- print(f"🔘 Нажатие {clicks} - загружено {current_count} рецептов")
94
-
95
- # Ждём загрузки
96
- time.sleep(3)
97
-
98
- except TimeoutException:
99
- print("🏁 Кнопка не найдена - загрузка завершена")
100
- break
101
- except Exception as e:
102
- print(f"⚠️ Ошибка: {e}")
103
- break
104
-
105
- # Финальный сбор
106
- final_links = self.driver.execute_script(self.js_get_links)
107
- print(f"\n📊 Собрано {len(final_links)} ссылок за {clicks} нажатий")
108
- return final_links
109
-
110
- def parse_recipe(self, url):
111
- """Парсит 1 страницу через BeautifulSoup ОСТАНОВЛИВАЯСЬ перед мусором"""
112
- try:
113
- response = requests.get(url, headers=self.headers, timeout=10)
114
- soup = BeautifulSoup(response.content, 'html.parser')
115
-
116
- # Заголовок
117
- title_elem = soup.select_one("h2") or soup.select_one(".article-title")
118
- title = title_elem.get_text(strip=True) if title_elem else "Не найден"
119
-
120
- # Дата
121
- date_elem = soup.select_one("time") or soup.select_one(".date")
122
- date = date_elem.get_text(strip=True) if date_elem else "Не указана"
123
-
124
- # Находим ОСНОВНОЙ контейнер с текстом
125
- content = soup.select_one("article") or soup.select_one(".article-text")
126
-
127
- if not content:
128
- return {
129
- 'url': url,
130
- 'title': title,
131
- 'date': date,
132
- 'text': "Текст не найден",
133
- 'parsed_at': datetime.now().isoformat()
134
- }
135
-
136
- # Удаляем мусорные блоки ИЗ HTML ДО извлечения текста
137
- # Ищем и удаляем блоки, которые содержат мусор
138
- garbage_selectors = [
139
- ".tags", # Блок тегов
140
- ".teaser", # Рекомендации статей
141
- ".subscribe", # Подписки
142
- ".related-news", # Похожие новости
143
- ".social-links", # Соцсети
144
- "[class*='ad']", # Реклама
145
- "[class*='banner']", # Баннеры
146
- "div.part.mn__aside", # Вся боковая колонка
147
- ]
148
-
149
- for selector in garbage_selectors:
150
- for garbage in content.select(selector):
151
- garbage.decompose() # УДАЛЯЕМ элемент из HTML
152
-
153
- # ТОЛЬКО ТЕПЕРЬ извлекаем чистый текст
154
- text = content.get_text(strip=True)
155
-
156
- return {
157
- 'url': url,
158
- 'title': title,
159
- 'date': date,
160
- 'text': text[:10000],
161
- 'parsed_at': datetime.now().isoformat()
162
- }
163
-
164
- except Exception as e:
165
- print(f"❌ Ошибка парсинга {url}: {e}")
166
- return None
167
-
168
- def parse_all_recipes(self, links, delay=1.0): #время задержки можно поменять
169
- """Парсит все рецепты из списка ссылок"""
170
- print(f"\n📄 Начинаю парсинг {len(links)} рецептов...")
171
-
172
- recipes = []
173
- start_time = time.time()
174
-
175
- for i, url in enumerate(links, 1):
176
- if i % 10 == 0:
177
- elapsed = time.time() - start_time
178
- print(f" Обработано {i}/{len(links)} за {elapsed:.1f} сек")
179
-
180
- recipe = self.parse_recipe(url)
181
- if recipe:
182
- recipes.append(recipe)
183
-
184
- # Пауза между запросами
185
- if i < len(links):
186
- time.sleep(delay)
187
-
188
- print(f"✅ Успешно спарсено: {len(recipes)}/{len(links)} рецептов")
189
- return recipes
190
-
191
- def save_results(self, recipes, prefix="stmegi_recipes"):
192
- """Сохраняет результаты в CSV и JSON"""
193
- timestamp = datetime.now().strftime('%Y%m%d_%H%M')
194
-
195
- # CSV
196
- csv_file = f"{prefix}_{timestamp}.csv"
197
- df = pd.DataFrame(recipes)
198
- df.to_csv(csv_file, index=False, encoding='utf-8-sig')
199
-
200
- # JSON
201
- json_file = f"{prefix}_{timestamp}.json"
202
- with open(json_file, 'w', encoding='utf-8') as f:
203
- json.dump(recipes, f, ensure_ascii=False, indent=2)
204
-
205
- # Ссылки
206
- links_file = f"{prefix}_links_{timestamp}.txt"
207
- with open(links_file, 'w', encoding='utf-8') as f:
208
- for r in recipes:
209
- f.write(r['url'] + '\n')
210
-
211
- print(f"\n💾 Результаты сохранены:")
212
- print(f" • {csv_file} ({len(recipes)} записей)")
213
- print(f" • {json_file}")
214
- print(f" • {links_file}")
215
-
216
- return csv_file
217
-
218
- def run(self, start_url, max_recipes=None):
219
- """Запускает полный процесс парсинга"""
220
- print("=" * 60)
221
- print("🚀 ЗАПУСК ПАРСЕРА STMEGI.COM")
222
- print("=" * 60)
223
-
224
- start_time = time.time()
225
-
226
- # 1. Собираем ссылки
227
- all_links = self.collect_all_links(start_url)
228
-
229
- if max_recipes and len(all_links) > max_recipes:
230
- print(f"\n⚠️ Ограничиваю до {max_recipes} рецептов")
231
- all_links = all_links[:max_recipes]
232
-
233
- # 2. Парсим рецепты
234
- recipes = self.parse_all_recipes(all_links)
235
-
236
- # 3. Сохраняем
237
- if recipes:
238
- self.save_results(recipes)
239
-
240
- # 4. Статистика
241
- elapsed = time.time() - start_time
242
- print("\n" + "=" * 60)
243
- print("📊 ФИНАЛЬНАЯ СТАТИСТИКА")
244
- print("=" * 60)
245
- print(f" • Всего ссылок собрано: {len(all_links)}")
246
- print(f" • Успешно спарсено: {len(recipes)}")
247
- print(f" • Общее время: {elapsed:.1f} сек")
248
- print(f" • Скорость: {len(recipes)/elapsed:.1f} рец/сек")
249
-
250
- if recipes:
251
- print(f"\n📋 Пример первого рецепта:")
252
- first = recipes[0]
253
- print(f" Заголовок: {first['title'][:60]}...")
254
- print(f" Дата: {first['date']}")
255
- #print(f" Категория: {first['category']}")
256
- print(f" Текст: {first['text'][:100]}...")
257
-
258
- return recipes
259
-
260
- def close(self):
261
- """Закрывает ресурсы"""
262
- print("\n👋 Закрываю парсер...")
263
- self.driver.quit()
264
-
265
-
266
- def main():
267
- """Точка входа"""
268
-
269
- # Конфигурация
270
- START_URL = "https://stmegi.com/gorskie_evrei/kukhnya/"
271
- MAX_RECIPES = None # Поставить число, если нужен лимит, но оп ка на сайте их всего 42
272
- HEADLESS = True # False для отладки
273
-
274
- try:
275
- # Создаем и запускаем парсер
276
- parser = StmegiParser(headless=HEADLESS)
277
- results = parser.run(START_URL, max_recipes=MAX_RECIPES)
278
- parser.close()
279
-
280
- if results:
281
- print(f"\n🎉 Парсинг успешно завершен!")
282
- else:
283
- print(f"\n⚠️ Данные не собраны")
284
-
285
- input("\nНажмите Enter для выхода...")
286
-
287
- except KeyboardInterrupt:
288
- print("\n\n⚠️ Прервано пользователем")
289
- except Exception as e:
290
- print(f"\n❌ Ошибка: {e}")
291
- import traceback
292
- traceback.print_exc()
293
- input("\nНажмите Enter для выхода...")
294
-
295
-
296
- if __name__ == "__main__":
297
  main()
 
1
+ """
2
+ Парсер рецептов с сайта STMEGI.COM
3
+ """
4
+
5
+ import time
6
+ import json
7
+ import pandas as pd
8
+ from datetime import datetime
9
+ import requests
10
+ from bs4 import BeautifulSoup
11
+ from selenium import webdriver
12
+ from selenium.webdriver.common.by import By
13
+ from selenium.webdriver.support.ui import WebDriverWait
14
+ from selenium.webdriver.support import expected_conditions as EC
15
+ from selenium.webdriver.chrome.service import Service
16
+ from webdriver_manager.chrome import ChromeDriverManager
17
+ from selenium.common.exceptions import TimeoutException
18
+
19
+
20
+ class StmegiParser:
21
+ """Парсер рецептов с сайта STMEGI.com"""
22
+
23
+ def __init__(self, headless=True):
24
+ """Инициализация с настройками"""
25
+ self.setup_selenium(headless)
26
+ self.setup_requests()
27
+ print("✅ Парсер инициализирован")
28
+
29
+ def setup_selenium(self, headless):
30
+ """Настройка Selenium для сбора ссылок"""
31
+ options = webdriver.ChromeOptions()
32
+ if headless:
33
+ options.add_argument('--headless')
34
+ options.add_argument('--no-sandbox')
35
+ options.add_argument('--window-size=1920,1080')
36
+
37
+ self.driver = webdriver.Chrome(
38
+ service=Service(ChromeDriverManager().install()),
39
+ options=options
40
+ )
41
+
42
+ # Java script для сбора ссылок
43
+ self.js_get_links = """
44
+ var links = document.querySelectorAll('a[href*="/posts/"]');
45
+ var urls = [];
46
+ for (var i = 0; i < links.length; i++) {
47
+ var href = links[i].href;
48
+ if (href && href.includes('/gorskie_evrei/posts/')) {
49
+ urls.push(href);
50
+ }
51
+ }
52
+ return [...new Set(urls)];
53
+ """
54
+
55
+ def setup_requests(self):
56
+ """Настройка запросов + BeautifulSoup"""
57
+ self.headers = {
58
+ 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36'
59
+ }
60
+
61
+ def collect_all_links(self, url, max_clicks=50):
62
+ """Собирает ссылки на все рецепты через Selenium"""
63
+ print(f"🌐 Открываю: {url}")
64
+ self.driver.get(url)
65
+ time.sleep(3)
66
+
67
+ clicks = 0
68
+ last_count = 0
69
+
70
+ while clicks < max_clicks:
71
+ try:
72
+ # Текущее количество ссылок
73
+ current_links = self.driver.execute_script(self.js_get_links)
74
+ current_count = len(current_links)
75
+
76
+ # Проверяем, нужен ли ещё клик
77
+ if clicks > 0 and current_count == last_count:
78
+ print("✅ Все рецепты загружены")
79
+ break
80
+
81
+ last_count = current_count
82
+
83
+ # Находим и нажимаем кнопку
84
+ button = WebDriverWait(self.driver, 5).until(
85
+ EC.presence_of_element_located((By.CSS_SELECTOR, "button.btn.btn-blue.btn__load-elements"))
86
+ )
87
+
88
+ self.driver.execute_script("arguments[0].scrollIntoView({block: 'center'});", button)
89
+ time.sleep(1)
90
+ self.driver.execute_script("arguments[0].click();", button)
91
+
92
+ clicks += 1
93
+ print(f"🔘 Нажатие {clicks} - загружено {current_count} рецептов")
94
+
95
+ # Ждём загрузки
96
+ time.sleep(3)
97
+
98
+ except TimeoutException:
99
+ print("🏁 Кнопка не найдена - загрузка завершена")
100
+ break
101
+ except Exception as e:
102
+ print(f"⚠️ Ошибка: {e}")
103
+ break
104
+
105
+ # Финальный сбор
106
+ final_links = self.driver.execute_script(self.js_get_links)
107
+ print(f"\n📊 Собрано {len(final_links)} ссылок за {clicks} нажатий")
108
+ return final_links
109
+
110
+ def parse_recipe(self, url):
111
+ """Парсит 1 страницу через BeautifulSoup ОСТАНОВЛИВАЯСЬ перед мусором"""
112
+ try:
113
+ response = requests.get(url, headers=self.headers, timeout=10)
114
+ soup = BeautifulSoup(response.content, 'html.parser')
115
+
116
+ # Заголовок
117
+ title_elem = soup.select_one("h2") or soup.select_one(".article-title")
118
+ title = title_elem.get_text(strip=True) if title_elem else "Не найден"
119
+
120
+ # Дата
121
+ date_elem = soup.select_one("time") or soup.select_one(".date")
122
+ date = date_elem.get_text(strip=True) if date_elem else "Не указана"
123
+
124
+ # Находим ОСНОВНОЙ контейнер с текстом
125
+ content = soup.select_one("article") or soup.select_one(".article-text")
126
+
127
+ if not content:
128
+ return {
129
+ 'url': url,
130
+ 'title': title,
131
+ 'date': date,
132
+ 'text': "Текст не найден",
133
+ 'parsed_at': datetime.now().isoformat()
134
+ }
135
+
136
+ # Удаляем мусорные блоки ИЗ HTML перед извлечением текста
137
+ garbage_selectors = [
138
+ ".tags", # Блок тегов
139
+ ".teaser", # Рекомендации статей
140
+ ".subscribe", # Подписки
141
+ ".related-news", # Похожие новости
142
+ ".social-links", # Соцсети
143
+ "[class*='ad']", # Реклама
144
+ "[class*='banner']", # Баннеры
145
+ "div.part.mn__aside", # Вся боковая колонка
146
+ ]
147
+
148
+ for selector in garbage_selectors:
149
+ for garbage in content.select(selector):
150
+ garbage.decompose() # удаляем элемент из HTML
151
+
152
+ # Извлекаем чистый текст
153
+ text = content.get_text(strip=True)
154
+
155
+ return {
156
+ 'url': url,
157
+ 'title': title,
158
+ 'date': date,
159
+ 'text': text[:10000],
160
+ 'parsed_at': datetime.now().isoformat()
161
+ }
162
+
163
+ except Exception as e:
164
+ print(f"❌ Ошибка парсинга {url}: {e}")
165
+ return None
166
+
167
+ def parse_all_recipes(self, links, delay=1.0): #время задержки можно поменять
168
+ """Парсит все рецепты из списка ссылок"""
169
+ print(f"\n📄 Начинаю парсинг {len(links)} рецептов...")
170
+
171
+ recipes = []
172
+ start_time = time.time()
173
+
174
+ for i, url in enumerate(links, 1):
175
+ if i % 10 == 0:
176
+ elapsed = time.time() - start_time
177
+ print(f" Обработано {i}/{len(links)} за {elapsed:.1f} сек")
178
+
179
+ recipe = self.parse_recipe(url)
180
+ if recipe:
181
+ recipes.append(recipe)
182
+
183
+ # Пауза между запросами
184
+ if i < len(links):
185
+ time.sleep(delay)
186
+
187
+ print(f"✅ Успешно спарсено: {len(recipes)}/{len(links)} рецептов")
188
+ return recipes
189
+
190
+ def save_results(self, recipes, prefix="stmegi_recipes"):
191
+ """Сохраняет результаты в CSV и JSON"""
192
+ timestamp = datetime.now().strftime('%Y%m%d_%H%M')
193
+
194
+ # CSV
195
+ csv_file = f"{prefix}_{timestamp}.csv"
196
+ df = pd.DataFrame(recipes)
197
+ df.to_csv(csv_file, index=False, encoding='utf-8-sig')
198
+
199
+ # JSON
200
+ json_file = f"{prefix}_{timestamp}.json"
201
+ with open(json_file, 'w', encoding='utf-8') as f:
202
+ json.dump(recipes, f, ensure_ascii=False, indent=2)
203
+
204
+ # Ссылки
205
+ links_file = f"{prefix}_links_{timestamp}.txt"
206
+ with open(links_file, 'w', encoding='utf-8') as f:
207
+ for r in recipes:
208
+ f.write(r['url'] + '\n')
209
+
210
+ print(f"\n💾 Результаты сохранены:")
211
+ print(f" {csv_file} ({len(recipes)} записей)")
212
+ print(f" • {json_file}")
213
+ print(f" • {links_file}")
214
+
215
+ return csv_file
216
+
217
+ def run(self, start_url, max_recipes=None):
218
+ """Запускает полный процесс парсинга"""
219
+ print("=" * 60)
220
+ print("🚀 ЗАПУСК ПАРСЕРА STMEGI.COM")
221
+ print("=" * 60)
222
+
223
+ start_time = time.time()
224
+
225
+ # 1. Собираем ссылки
226
+ all_links = self.collect_all_links(start_url)
227
+
228
+ if max_recipes and len(all_links) > max_recipes:
229
+ print(f"\n⚠️ Ограничиваю до {max_recipes} рецептов")
230
+ all_links = all_links[:max_recipes]
231
+
232
+ # 2. Парсим рецепты
233
+ recipes = self.parse_all_recipes(all_links)
234
+
235
+ # 3. Сохраняем
236
+ if recipes:
237
+ self.save_results(recipes)
238
+
239
+ # 4. Статистика
240
+ elapsed = time.time() - start_time
241
+ print("\n" + "=" * 60)
242
+ print("📊 ФИНАЛЬНАЯ СТАТИСТИКА")
243
+ print("=" * 60)
244
+ print(f" Всего ссылок собрано: {len(all_links)}")
245
+ print(f" • Успешно спарсено: {len(recipes)}")
246
+ print(f" • Общее время: {elapsed:.1f} сек")
247
+ print(f" • Скорость: {len(recipes)/elapsed:.1f} рец/сек")
248
+
249
+ if recipes:
250
+ print(f"\n📋 Пример первого рецепта:")
251
+ first = recipes[0]
252
+ print(f" Заголовок: {first['title'][:60]}...")
253
+ print(f" Дата: {first['date']}")
254
+ #print(f" Категория: {first['category']}")
255
+ print(f" Текст: {first['text'][:100]}...")
256
+
257
+ return recipes
258
+
259
+ def close(self):
260
+ """Закрывает ресурсы"""
261
+ print("\n👋 Закрываю парсер...")
262
+ self.driver.quit()
263
+
264
+
265
+ def main():
266
+ """Точка входа"""
267
+
268
+ # Конфигурация
269
+ START_URL = "https://stmegi.com/gorskie_evrei/kukhnya/"
270
+ MAX_RECIPES = None # Поставить число, если нужен лимит, но пока на сайте их всего 42
271
+ HEADLESS = True # False для отладки
272
+
273
+ try:
274
+ # Создаем и запускаем парсер
275
+ parser = StmegiParser(headless=HEADLESS)
276
+ results = parser.run(START_URL, max_recipes=MAX_RECIPES)
277
+ parser.close()
278
+
279
+ if results:
280
+ print(f"\n🎉 Парсинг успешно завершен!")
281
+ else:
282
+ print(f"\n⚠️ Данные не собраны")
283
+
284
+ input("\nНажмите Enter для выхода...")
285
+
286
+ except KeyboardInterrupt:
287
+ print("\n\n⚠️ Прервано пользователем")
288
+ except Exception as e:
289
+ print(f"\n❌ Ошибка: {e}")
290
+ import traceback
291
+ traceback.print_exc()
292
+ input("\nНажмите Enter для выхода...")
293
+
294
+
295
+ if __name__ == "__main__":
 
296
  main()