clonable-test / crawler.py
ssbagpcm's picture
Upload 2 files
b14a81d verified
import os
import requests
from bs4 import BeautifulSoup
import sqlite3
import threading
from queue import Queue
# Configuration
BASE_URL = "https://en.wikipedia.org"
START_URL = f"{BASE_URL}/wiki/Main_Page"
ARCHIVE_FOLDER = "archive"
DB_FILE = "visited_links.db"
THREAD_COUNT = 45 # Nombre de threads à utiliser
# Création du dossier archive
os.makedirs(ARCHIVE_FOLDER, exist_ok=True)
# Initialisation de la base de données
conn = sqlite3.connect(DB_FILE, check_same_thread=False)
cur = conn.cursor()
cur.execute("""
CREATE TABLE IF NOT EXISTS visited_links (
id INTEGER PRIMARY KEY AUTOINCREMENT,
url TEXT UNIQUE
)
""")
# Ajouter la colonne 'explored' si elle n'existe pas déjà
cur.execute("PRAGMA table_info(visited_links)")
columns = [row[1] for row in cur.fetchall()]
if "explored" not in columns:
cur.execute("ALTER TABLE visited_links ADD COLUMN explored INTEGER DEFAULT 0")
conn.commit()
# Initialisation de la file d'attente
link_queue = Queue()
# Reprendre les URLs non explorées
cur.execute("SELECT url FROM visited_links WHERE explored = 0")
for row in cur.fetchall():
link_queue.put(row[0])
# Si aucune URL à reprendre, commencer par START_URL
if link_queue.empty():
link_queue.put(START_URL)
lock = threading.Lock() # Pour gérer l'accès simultané à la base de données
def save_article(title, content):
"""Enregistre l'article sous forme de fichier texte."""
filename = f"{title}.txt".replace("/", "_")
filepath = os.path.join(ARCHIVE_FOLDER, filename)
with open(filepath, "w", encoding="utf-8") as file:
file.write(content)
def is_visited(url):
"""Vérifie si le lien a déjà été visité."""
with lock: # Protéger l'accès à la base de données
cur.execute("SELECT 1 FROM visited_links WHERE url = ?", (url,))
return cur.fetchone() is not None
def mark_as_visited(url):
"""Ajoute le lien à la base de données."""
with lock: # Protéger l'accès à la base de données
cur.execute("INSERT OR IGNORE INTO visited_links (url) VALUES (?)", (url,))
conn.commit()
def mark_as_explored(url):
"""Marque un lien comme entièrement exploré."""
with lock: # Protéger l'accès à la base de données
cur.execute("UPDATE visited_links SET explored = 1 WHERE url = ?", (url,))
conn.commit()
def crawl():
"""Crawl une page Wikipédia pour extraire des liens et le contenu."""
while not link_queue.empty():
url = link_queue.get()
if is_visited(url) and not link_queue.empty():
link_queue.task_done()
continue
try:
print(f"Crawling: {url}")
response = requests.get(url)
response.raise_for_status()
soup = BeautifulSoup(response.text, "html.parser")
# Extraire le titre et le contenu des balises <p>
title = soup.find("h1", {"id": "firstHeading"}).text
paragraphs = soup.find_all("p")
content = "\n\n".join(p.text.strip() for p in paragraphs if p.text.strip())
# Sauvegarder l'article
if content:
save_article(title, content)
mark_as_visited(url)
# Extraire les liens valides
links = set()
for a_tag in soup.find_all("a", href=True):
href = a_tag["href"]
if href.startswith("/wiki/") and not any(prefix in href for prefix in [":", "#"]):
full_url = BASE_URL + href
if not is_visited(full_url):
links.add(full_url)
# Ajouter les nouveaux liens à la file d'attente
for link in links:
link_queue.put(link)
# Marquer l'URL comme explorée
mark_as_explored(url)
except Exception as e:
print(f"Erreur lors du crawl de {url}: {e}")
finally:
link_queue.task_done()
def main():
# Démarrer les threads
threads = []
for _ in range(THREAD_COUNT):
t = threading.Thread(target=crawl)
t.daemon = True
threads.append(t)
t.start()
# Attendre que la file d'attente soit vide
link_queue.join()
for t in threads:
t.join()
if __name__ == "__main__":
main()