Update README.md
Browse files
README.md
CHANGED
|
@@ -1,3 +1,65 @@
|
|
| 1 |
-
---
|
| 2 |
-
|
| 3 |
-
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
language:
|
| 3 |
+
- en
|
| 4 |
+
- de
|
| 5 |
+
library_name: transformers
|
| 6 |
+
tags:
|
| 7 |
+
- gpt
|
| 8 |
+
- llm
|
| 9 |
+
- large language model
|
| 10 |
+
- mateilx
|
| 11 |
+
inference: false
|
| 12 |
+
thumbnail: >-
|
| 13 |
+
https://h2o.ai/etc.clientlibs/h2o/clientlibs/clientlib-site/resources/images/favicon.ico
|
| 14 |
+
license: apache-2.0
|
| 15 |
+
---
|
| 16 |
+
|
| 17 |
+
# Model Card
|
| 18 |
+
|
| 19 |
+
## Overview
|
| 20 |
+
|
| 21 |
+
**EvaGPT-German-0.7B - MaTeLiX-AI-for-Pretraining** ist ein **untrainiertes Large Language Model (LLM)**, das exklusiv für das MaTeLiX Trainingsdashboard bereitgestellt wird.
|
| 22 |
+
Das Modell unterstützt **Deutsch** und **Englisch** und dient als reine Ausgangsbasis für das Pretraining.
|
| 23 |
+
|
| 24 |
+
> **WICHTIG:**
|
| 25 |
+
> **Dieses Modell ist untrainiert!**
|
| 26 |
+
> Es wurde lediglich der Tokenizer initialisiert, das Modell selbst ist komplett untrainiert (“random init”).
|
| 27 |
+
> Für jegliche sinnvolle Nutzung – auch Tests oder Experimente – ist ein vollständiges Pretraining **zwingend erforderlich**.
|
| 28 |
+
|
| 29 |
+
* **Typ:** Rolling LLM (untrainiert, nur Tokenizer)
|
| 30 |
+
* **Kompatibilität:** [Transformers](https://huggingface.co/docs/transformers) Library
|
| 31 |
+
* **Zweck:** Basis für Pretraining und experimentelle Zwecke im MaTeLiX-Ökosystem
|
| 32 |
+
|
| 33 |
+
## Hinweis zur Architektur
|
| 34 |
+
|
| 35 |
+
Auch wenn im Code der Name `MistralForCausalLM` verwendet wird, handelt es sich **nicht um ein Mistral-Modell**.
|
| 36 |
+
Die Architektur wurde selbst entwickelt; der Name dient lediglich der technischen Kompatibilität mit der Hugging Face `transformers`-Bibliothek.
|
| 37 |
+
|
| 38 |
+
## Nutzung im MaTeLiX Dashboard
|
| 39 |
+
|
| 40 |
+
Dieses Modell ist ausschließlich für die Nutzung innerhalb des MaTeLiX Trainingsdashboards bestimmt.
|
| 41 |
+
Eine Verwendung außerhalb dieser Plattform ist **nicht vorgesehen** und wird **nicht unterstützt**.
|
| 42 |
+
|
| 43 |
+
**Anwendung:**
|
| 44 |
+
Im MaTeLiX Dashboard dient dieses Modell als Ausgangspunkt für Pretraining-Experimente und Modell-Entwicklung.
|
| 45 |
+
Alle Trainings- und Feineinstellungen werden über das Dashboard gesteuert.
|
| 46 |
+
|
| 47 |
+
## Technische Details
|
| 48 |
+
|
| 49 |
+
* **Architektur:** Eigene Entwicklung, Kompatibilität über `MistralForCausalLM`
|
| 50 |
+
* **Sprachen:** Deutsch, Englisch
|
| 51 |
+
* **Status:** Untrainiert, nur Tokenizer initialisiert
|
| 52 |
+
* **Trainingsdaten:** Noch keine (Pretraining erforderlich)
|
| 53 |
+
* **Hinweis:** Nicht für produktive Nutzung geeignet
|
| 54 |
+
|
| 55 |
+
## Lizenz & Haftungsausschluss
|
| 56 |
+
|
| 57 |
+
Dieses Modell ist ausschließlich für Demonstrations-, Entwicklungs- und Trainingszwecke im MaTeLiX Trainingsdashboard vorgesehen.
|
| 58 |
+
MaTeLiX übernimmt keinerlei Haftung für Modellantworten, Fehler oder unerwünschtes Verhalten.
|
| 59 |
+
Für jede produktive oder externe Nutzung ist ein vollständiges Pretraining und ggf. weiteres Finetuning erforderlich.
|
| 60 |
+
|
| 61 |
+
---
|
| 62 |
+
|
| 63 |
+
## Kontakt
|
| 64 |
+
|
| 65 |
+
Fragen zur Nutzung oder zum Pretraining bitte an das MaTeLiX Support-Team.
|