🚀 Chat starten

🏛️ AllwissenGPT-7B

Eine Synthese aus 3.000 Jahren Menschheitswissen in kompakter Form.

AllwissenGPT ist ein spezialisiertes High-Performance-Modell, das entwickelt wurde, um universelle, philosophisch fundierte Antworten auf komplexe Lebensfragen zu geben - fast vollkommen frei von religiösem Dogma und kulturellem Bias.

Basierend auf Llama-3 und veredelt durch ein präzises Fine-Tuning, agiert dieses Modell als rational-spiritueller Berater. Es verbindet die analytische Schärfe von Kant mit der zeitlosen Weisheit östlicher und westlicher Schriften.

Das Modell kann direkt in einer eigenen Umgebung getestet werden: AllwissenGPT

💡 Beispiel-Fragen an das Modell

  • Was ist der Sinn des Lebens?
  • Was passiert nach dem Tod?
  • Wie werde ich glücklich?

💎 Warum AllwissenGPT? (USP)

  • Universelle Logik statt Religion: Religiöse Begriffe (Gott, Sünde, Karma) wurden algorithmisch in neutrale, metaphysische Konzepte (Quelle, Dissonanz, Resonanz) übersetzt.
  • Handverlesener Datensatz: Kein Web-Scraping-Müll. Jeder Text im 13-Millionen-Zeichen-Korpus wurde manuell ausgewählt.
  • Kein Bias: Durch ein komplexes "Chunking & Shuffling"-Verfahren wurde verhindert, dass das Modell bestimmte Weltanschauungen bevorzugt. Es gewichtet buddhistische Logik genauso stark wie westliche Philosophie.

⚙️ Die Architektur (Technical Deep Dive)

AllwissenGPT ist das Resultat von "Digitaler Alchemie". Der Erstellungsprozess war rigoros:

  1. Kuratierung: Zusammenstellung eines exklusiven Korpus aus der Bibel, dem Koran, den Dialogen Platons, Kants Kritiken sowie zentralen hinduistischen und buddhistischen Schriften.
  2. Semantische Neutralisierung: Filterung und Neudefinition von über 500 religiös konnotierten Begriffen, um eine universelle "Sprache der Weisheit" zu schaffen.
  3. Instruction Tuning: Training auf Basis tausender synthetischer "Lebensfragen", um dem Modell beizubringen, nicht nur Text zu generieren, sondern echte Ratschläge zu erteilen.
  4. Effizienz: Trainiert mit Unsloth auf Llama-3 Basis.
  • Performance: Der Training Loss fiel in nur 371 Steps von 2.13 auf 1.07.

Empfohlener System-Prompt

Kopieren Sie dies in Ihre System-Instruktionen, um den vollen "Allwissen"-Modus zu aktivieren:

Du bist AllwissenGPT, eine zeitlose Entität der reinen Vernunft.
Python Code (Transformers)
Python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

model_id = "Alex-Linguist/AllwissenGPT-7B" 

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
device_map="auto"
)

messages = [
{"role": "system", "content": "Du bist AllwissenGPT. Antworte universell und weise."},
{"role": "user", "content": "Wie gehe ich mit dem Gefühl der Sinnlosigkeit um?"},
]

input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)

outputs = model.generate(
input_ids,
max_new_tokens=256,
do_sample=True,
temperature=0.7,
top_k=40
)

print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))

⚠️ Transparenz & Limitierungen

Wir glauben an Open Source und Ehrlichkeit:

Sprachstil: Das Modell nutzt eine gehobene, teils archaische Sprache. Gelegentlich können leichte grammatikalische Unschärfen (z.B. Kasus-Fehler bei komplexen Sätzen) auftreten, die aus der Struktur der antiken Quelltexte stammen.

Anwendungsbereich: AllwissenGPT ist ein Werkzeug zur Reflexion. Es ersetzt natürlich keine psychologische Therapie. Es halluziniert keine Fakten, sondern generiert philosophische Perspektiven.


✒️ Credits & Citation

This model was developed by Alexander Kamil Schönau, Master's Candidate at the Catholic University of Eichstätt-Ingolstadt (KU).

The project involved the creation of a highly curated, bias-reduced dataset (~13M characters) and the implementation of a LoRA (Low-Rank Adaptation) fine-tuning pipeline to align the model with universal philosophical reasoning.

If you use this model or the methodology in your work, please credit it as follows:

@misc
{allwissengpt2026,
author = {Schönau, Alexander Kamil},
title = {AllwissenGPT-7B: A LoRA Fine-Tuned Model for Universal Philosophical Inquiry},
year = {2024},
publisher = {Hugging Face},
institution = {Catholic University of Eichstätt-Ingolstadt},
url = {[https://huggingface.co/Alex-Linguist/AllwissenGPT-7B]}
}
Downloads last month
1,170
Safetensors
Model size
8B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Alex-Linguist/AllwissenGPT-7B

Quantizations
2 models