File size: 4,478 Bytes
b14a81d |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 |
import os
import requests
from bs4 import BeautifulSoup
import sqlite3
import threading
from queue import Queue
# Configuration
BASE_URL = "https://en.wikipedia.org"
START_URL = f"{BASE_URL}/wiki/Main_Page"
ARCHIVE_FOLDER = "archive"
DB_FILE = "visited_links.db"
THREAD_COUNT = 45 # Nombre de threads à utiliser
# Création du dossier archive
os.makedirs(ARCHIVE_FOLDER, exist_ok=True)
# Initialisation de la base de données
conn = sqlite3.connect(DB_FILE, check_same_thread=False)
cur = conn.cursor()
cur.execute("""
CREATE TABLE IF NOT EXISTS visited_links (
id INTEGER PRIMARY KEY AUTOINCREMENT,
url TEXT UNIQUE
)
""")
# Ajouter la colonne 'explored' si elle n'existe pas déjà
cur.execute("PRAGMA table_info(visited_links)")
columns = [row[1] for row in cur.fetchall()]
if "explored" not in columns:
cur.execute("ALTER TABLE visited_links ADD COLUMN explored INTEGER DEFAULT 0")
conn.commit()
# Initialisation de la file d'attente
link_queue = Queue()
# Reprendre les URLs non explorées
cur.execute("SELECT url FROM visited_links WHERE explored = 0")
for row in cur.fetchall():
link_queue.put(row[0])
# Si aucune URL à reprendre, commencer par START_URL
if link_queue.empty():
link_queue.put(START_URL)
lock = threading.Lock() # Pour gérer l'accès simultané à la base de données
def save_article(title, content):
"""Enregistre l'article sous forme de fichier texte."""
filename = f"{title}.txt".replace("/", "_")
filepath = os.path.join(ARCHIVE_FOLDER, filename)
with open(filepath, "w", encoding="utf-8") as file:
file.write(content)
def is_visited(url):
"""Vérifie si le lien a déjà été visité."""
with lock: # Protéger l'accès à la base de données
cur.execute("SELECT 1 FROM visited_links WHERE url = ?", (url,))
return cur.fetchone() is not None
def mark_as_visited(url):
"""Ajoute le lien à la base de données."""
with lock: # Protéger l'accès à la base de données
cur.execute("INSERT OR IGNORE INTO visited_links (url) VALUES (?)", (url,))
conn.commit()
def mark_as_explored(url):
"""Marque un lien comme entièrement exploré."""
with lock: # Protéger l'accès à la base de données
cur.execute("UPDATE visited_links SET explored = 1 WHERE url = ?", (url,))
conn.commit()
def crawl():
"""Crawl une page Wikipédia pour extraire des liens et le contenu."""
while not link_queue.empty():
url = link_queue.get()
if is_visited(url) and not link_queue.empty():
link_queue.task_done()
continue
try:
print(f"Crawling: {url}")
response = requests.get(url)
response.raise_for_status()
soup = BeautifulSoup(response.text, "html.parser")
# Extraire le titre et le contenu des balises <p>
title = soup.find("h1", {"id": "firstHeading"}).text
paragraphs = soup.find_all("p")
content = "\n\n".join(p.text.strip() for p in paragraphs if p.text.strip())
# Sauvegarder l'article
if content:
save_article(title, content)
mark_as_visited(url)
# Extraire les liens valides
links = set()
for a_tag in soup.find_all("a", href=True):
href = a_tag["href"]
if href.startswith("/wiki/") and not any(prefix in href for prefix in [":", "#"]):
full_url = BASE_URL + href
if not is_visited(full_url):
links.add(full_url)
# Ajouter les nouveaux liens à la file d'attente
for link in links:
link_queue.put(link)
# Marquer l'URL comme explorée
mark_as_explored(url)
except Exception as e:
print(f"Erreur lors du crawl de {url}: {e}")
finally:
link_queue.task_done()
def main():
# Démarrer les threads
threads = []
for _ in range(THREAD_COUNT):
t = threading.Thread(target=crawl)
t.daemon = True
threads.append(t)
t.start()
# Attendre que la file d'attente soit vide
link_queue.join()
for t in threads:
t.join()
if __name__ == "__main__":
main()
|