Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -150,9 +150,33 @@ Het is alsof we met een digitale bril naar de geschiedenis kijken — een bril d
|
|
| 150 |
|
| 151 |
EXPLAIN_MD_SIDE = """
|
| 152 |
<span style='color:#1B4B91'>
|
| 153 |
-
Bij het opstarten traint de computer een RandomForest-model dat leert wie op de Titanic overleefde – en waarom
|
| 154 |
-
|
| 155 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 156 |
</span>
|
| 157 |
"""
|
| 158 |
|
|
|
|
| 150 |
|
| 151 |
EXPLAIN_MD_SIDE = """
|
| 152 |
<span style='color:#1B4B91'>
|
| 153 |
+
Bij het opstarten traint de computer een RandomForest-model dat leert wie op de Titanic overleefde – en waarom.
|
| 154 |
+
Een RandomForest is een verzameling van honderden kleine beslisbomen.
|
| 155 |
+
Elke boom stelt als het ware vragen over de passagiers: Was deze persoon man of vrouw? Hoe oud was hij of zij? In welke klasse reisde men? Hoeveel familieleden waren er mee aan boord? Wat kostte het ticket? Waar stapte men op?
|
| 156 |
+
|
| 157 |
+
Elk van die bomen probeert een voorspelling te doen, alsof het een eigen mening vormt op basis van de gegevens.
|
| 158 |
+
Sommige bomen zullen zeggen: “ik denk dat deze persoon overleefde”, andere: “waarschijnlijk niet.”
|
| 159 |
+
Het bos – de verzameling van al die bomen samen – neemt dan de meerderheid van die meningen, waardoor één krachtige, evenwichtige beslissing ontstaat.
|
| 160 |
+
Zo vermijdt het model dat één toevallig patroon de uitkomst bepaalt: het leert van vele perspectieven tegelijk.
|
| 161 |
+
|
| 162 |
+
Dit leerproces noemen we **training**.
|
| 163 |
+
De computer krijgt eerst een groot deel van de gegevens te zien waarvan de uitkomst al bekend is — we weten immers wie overleefde en wie niet.
|
| 164 |
+
Daarmee leert het model hoe bepaalde combinaties van eigenschappen samenhangen met overlevingskansen.
|
| 165 |
+
Zodra het getraind is, testen we het op nieuwe gegevens die het nog nooit heeft gezien.
|
| 166 |
+
Als de voorspellingen dan nog steeds vaak juist zijn, weten we dat het model echt iets heeft “begrepen” uit de data, en niet alleen maar heeft uit het hoofd geleerd.
|
| 167 |
+
|
| 168 |
+
De nauwkeurigheid – bijvoorbeeld 74% – vertelt hoeveel van die voorspellingen correct zijn.
|
| 169 |
+
Een score van 74% betekent dus dat het model in 74 van de 100 gevallen goed raadt of iemand overleefde.
|
| 170 |
+
Geen perfecte voorspelling, maar wel een indrukwekkend resultaat als je bedenkt dat het model dit leert zonder enige voorkennis van menselijke emoties, gedrag of omstandigheden.
|
| 171 |
+
|
| 172 |
+
Wat dit zo bijzonder maakt, is dat het model niet simpelweg regels volgt, maar zelf ontdekt *welke* regels werken.
|
| 173 |
+
Het zoekt verbanden die te complex zijn om handmatig uit de data te halen: bijvoorbeeld dat jonge vrouwen in de derde klasse een andere kans hadden dan oudere mannen in de tweede, of dat families met meerdere kinderen vaker samen ten onder gingen.
|
| 174 |
+
Zo wordt de machine een leerling van de geschiedenis – een stille onderzoeker die patronen vindt waar wij misschien nooit op zouden zijn gekomen.
|
| 175 |
+
|
| 176 |
+
Wanneer het model eenmaal getraind is, kan het niet alleen het verleden verklaren, maar ook hypothetische scenario’s inschatten.
|
| 177 |
+
Wat als iemand ouder was geweest? Of in een andere klasse had gereisd?
|
| 178 |
+
Met één druk op de knop laat het model zien hoe zulke kleine verschillen het lot konden beïnvloeden.
|
| 179 |
+
Het leert dus niet alleen *wie* overleefde, maar ook *waarom* – en dat maakt de data levend, betekenisvol en menselijk.
|
| 180 |
</span>
|
| 181 |
"""
|
| 182 |
|