File size: 4,478 Bytes
b14a81d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
import os
import requests
from bs4 import BeautifulSoup
import sqlite3
import threading
from queue import Queue

# Configuration
BASE_URL = "https://en.wikipedia.org"
START_URL = f"{BASE_URL}/wiki/Main_Page"
ARCHIVE_FOLDER = "archive"
DB_FILE = "visited_links.db"
THREAD_COUNT = 45  # Nombre de threads à utiliser

# Création du dossier archive
os.makedirs(ARCHIVE_FOLDER, exist_ok=True)

# Initialisation de la base de données
conn = sqlite3.connect(DB_FILE, check_same_thread=False)
cur = conn.cursor()
cur.execute("""

    CREATE TABLE IF NOT EXISTS visited_links (

        id INTEGER PRIMARY KEY AUTOINCREMENT,

        url TEXT UNIQUE

    )

""")

# Ajouter la colonne 'explored' si elle n'existe pas déjà
cur.execute("PRAGMA table_info(visited_links)")
columns = [row[1] for row in cur.fetchall()]
if "explored" not in columns:
    cur.execute("ALTER TABLE visited_links ADD COLUMN explored INTEGER DEFAULT 0")
    conn.commit()

# Initialisation de la file d'attente
link_queue = Queue()

# Reprendre les URLs non explorées
cur.execute("SELECT url FROM visited_links WHERE explored = 0")
for row in cur.fetchall():
    link_queue.put(row[0])

# Si aucune URL à reprendre, commencer par START_URL
if link_queue.empty():
    link_queue.put(START_URL)

lock = threading.Lock()  # Pour gérer l'accès simultané à la base de données

def save_article(title, content):
    """Enregistre l'article sous forme de fichier texte."""
    filename = f"{title}.txt".replace("/", "_")
    filepath = os.path.join(ARCHIVE_FOLDER, filename)
    with open(filepath, "w", encoding="utf-8") as file:
        file.write(content)

def is_visited(url):
    """Vérifie si le lien a déjà été visité."""
    with lock:  # Protéger l'accès à la base de données
        cur.execute("SELECT 1 FROM visited_links WHERE url = ?", (url,))
        return cur.fetchone() is not None

def mark_as_visited(url):
    """Ajoute le lien à la base de données."""
    with lock:  # Protéger l'accès à la base de données
        cur.execute("INSERT OR IGNORE INTO visited_links (url) VALUES (?)", (url,))
        conn.commit()

def mark_as_explored(url):
    """Marque un lien comme entièrement exploré."""
    with lock:  # Protéger l'accès à la base de données
        cur.execute("UPDATE visited_links SET explored = 1 WHERE url = ?", (url,))
        conn.commit()

def crawl():
    """Crawl une page Wikipédia pour extraire des liens et le contenu."""
    while not link_queue.empty():
        url = link_queue.get()
        if is_visited(url) and not link_queue.empty():
            link_queue.task_done()
            continue

        try:
            print(f"Crawling: {url}")
            response = requests.get(url)
            response.raise_for_status()
            soup = BeautifulSoup(response.text, "html.parser")
            
            # Extraire le titre et le contenu des balises <p>
            title = soup.find("h1", {"id": "firstHeading"}).text
            paragraphs = soup.find_all("p")
            content = "\n\n".join(p.text.strip() for p in paragraphs if p.text.strip())

            # Sauvegarder l'article
            if content:
                save_article(title, content)
                mark_as_visited(url)

            # Extraire les liens valides
            links = set()
            for a_tag in soup.find_all("a", href=True):
                href = a_tag["href"]
                if href.startswith("/wiki/") and not any(prefix in href for prefix in [":", "#"]):
                    full_url = BASE_URL + href
                    if not is_visited(full_url):
                        links.add(full_url)

            # Ajouter les nouveaux liens à la file d'attente
            for link in links:
                link_queue.put(link)

            # Marquer l'URL comme explorée
            mark_as_explored(url)

        except Exception as e:
            print(f"Erreur lors du crawl de {url}: {e}")

        finally:
            link_queue.task_done()

def main():
    # Démarrer les threads
    threads = []
    for _ in range(THREAD_COUNT):
        t = threading.Thread(target=crawl)
        t.daemon = True
        threads.append(t)
        t.start()

    # Attendre que la file d'attente soit vide
    link_queue.join()
    for t in threads:
        t.join()

if __name__ == "__main__":
    main()