🏛️ AllwissenGPT-7B
Eine Synthese aus 3.000 Jahren Menschheitswissen in kompakter Form.
AllwissenGPT ist ein spezialisiertes High-Performance-Modell, das entwickelt wurde, um universelle, philosophisch fundierte Antworten auf komplexe Lebensfragen zu geben - fast vollkommen frei von religiösem Dogma und kulturellem Bias.
Basierend auf Llama-3 und veredelt durch ein präzises Fine-Tuning, agiert dieses Modell als rational-spiritueller Berater. Es verbindet die analytische Schärfe von Kant mit der zeitlosen Weisheit östlicher und westlicher Schriften.
Das Modell kann direkt in einer eigenen Umgebung getestet werden:

💡 Beispiel-Fragen an das Modell
- Was ist der Sinn des Lebens?
- Was passiert nach dem Tod?
- Wie werde ich glücklich?
💎 Warum AllwissenGPT? (USP)
- Universelle Logik statt Religion: Religiöse Begriffe (Gott, Sünde, Karma) wurden algorithmisch in neutrale, metaphysische Konzepte (Quelle, Dissonanz, Resonanz) übersetzt.
- Handverlesener Datensatz: Kein Web-Scraping-Müll. Jeder Text im 13-Millionen-Zeichen-Korpus wurde manuell ausgewählt.
- Kein Bias: Durch ein komplexes "Chunking & Shuffling"-Verfahren wurde verhindert, dass das Modell bestimmte Weltanschauungen bevorzugt. Es gewichtet buddhistische Logik genauso stark wie westliche Philosophie.
⚙️ Die Architektur (Technical Deep Dive)
AllwissenGPT ist das Resultat von "Digitaler Alchemie". Der Erstellungsprozess war rigoros:
- Kuratierung: Zusammenstellung eines exklusiven Korpus aus der Bibel, dem Koran, den Dialogen Platons, Kants Kritiken sowie zentralen hinduistischen und buddhistischen Schriften.
- Semantische Neutralisierung: Filterung und Neudefinition von über 500 religiös konnotierten Begriffen, um eine universelle "Sprache der Weisheit" zu schaffen.
- Instruction Tuning: Training auf Basis tausender synthetischer "Lebensfragen", um dem Modell beizubringen, nicht nur Text zu generieren, sondern echte Ratschläge zu erteilen.
- Effizienz: Trainiert mit Unsloth auf Llama-3 Basis.
- Performance: Der Training Loss fiel in nur 371 Steps von 2.13 auf 1.07.
Empfohlener System-Prompt
Kopieren Sie dies in Ihre System-Instruktionen, um den vollen "Allwissen"-Modus zu aktivieren:
Du bist AllwissenGPT, eine zeitlose Entität der reinen Vernunft.
Python Code (Transformers)
Python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "Alex-Linguist/AllwissenGPT-7B"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
device_map="auto"
)
messages = [
{"role": "system", "content": "Du bist AllwissenGPT. Antworte universell und weise."},
{"role": "user", "content": "Wie gehe ich mit dem Gefühl der Sinnlosigkeit um?"},
]
input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
outputs = model.generate(
input_ids,
max_new_tokens=256,
do_sample=True,
temperature=0.7,
top_k=40
)
print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))
⚠️ Transparenz & Limitierungen
Wir glauben an Open Source und Ehrlichkeit:
Sprachstil: Das Modell nutzt eine gehobene, teils archaische Sprache. Gelegentlich können leichte grammatikalische Unschärfen (z.B. Kasus-Fehler bei komplexen Sätzen) auftreten, die aus der Struktur der antiken Quelltexte stammen.
Anwendungsbereich: AllwissenGPT ist ein Werkzeug zur Reflexion. Es ersetzt natürlich keine psychologische Therapie. Es halluziniert keine Fakten, sondern generiert philosophische Perspektiven.
✒️ Credits & Citation
This model was developed by Alexander Kamil Schönau, Master's Candidate at the Catholic University of Eichstätt-Ingolstadt (KU).
The project involved the creation of a highly curated, bias-reduced dataset (~13M characters) and the implementation of a LoRA (Low-Rank Adaptation) fine-tuning pipeline to align the model with universal philosophical reasoning.
If you use this model or the methodology in your work, please credit it as follows:
@misc
{allwissengpt2026,
author = {Schönau, Alexander Kamil},
title = {AllwissenGPT-7B: A LoRA Fine-Tuned Model for Universal Philosophical Inquiry},
year = {2024},
publisher = {Hugging Face},
institution = {Catholic University of Eichstätt-Ingolstadt},
url = {[https://huggingface.co/Alex-Linguist/AllwissenGPT-7B]}
}
- Downloads last month
- 1,170