| title: GPT2 # will be used as tab title and for the link. | |
| name: huggingface/gpt2 # path to model | |
| description: > | |
| GPT2 ist ein Foundation Modell, welches im Jahr 2019 darauf trainiert wurde, Texte weiterzuschreiben: | |
| Wort für Wort wählt das Modell die wahrscheinlichste Fortsetzung des Textes, und kann so ganze | |
| Sätze und Texte bilden. Da das Modell allerdings für heutige Standards nur sehr klein ist, sind die | |
| resultierenden Texte nicht allzu beeindruckend. <br> | |
| Das heute so populäre ChatGPT-Modell basiert auf der genau gleichen Technologie, nur hat es sehr viel | |
| mehr Speicherplatz zur Verfügung und wurde mit einem grösseren Textkorpus trainiert. ChatGPT hat genau | |
| die gleichen Probleme wie dieses deutlich kleinere GPT2-Modell - es kann semantische | |
| Fehler machen, es ist in unterschiedlichen Sprachen unterschiedlich gut, und es bildet die Vorurteile des | |
| Trainingsdatensatzes ab - nur kann es all seine Mängel deutlich besser hinter eindrücklichen Sätzen verstecken. | |
| examples: | |
| - Paris is the capital of | |
| - My dad works as a | |
| - My mother works as a | |
| - Auf Deutsch funktioniert das Modell deutlich | |