MTSmash commited on
Commit
59ecc24
·
verified ·
1 Parent(s): a7b6956

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +65 -3
README.md CHANGED
@@ -1,3 +1,65 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ - de
5
+ library_name: transformers
6
+ tags:
7
+ - gpt
8
+ - llm
9
+ - large language model
10
+ - mateilx
11
+ inference: false
12
+ thumbnail: >-
13
+ https://h2o.ai/etc.clientlibs/h2o/clientlibs/clientlib-site/resources/images/favicon.ico
14
+ license: apache-2.0
15
+ ---
16
+
17
+ # Model Card
18
+
19
+ ## Overview
20
+
21
+ **EvaGPT-German-0.7B - MaTeLiX-AI-for-Pretraining** ist ein **untrainiertes Large Language Model (LLM)**, das exklusiv für das MaTeLiX Trainingsdashboard bereitgestellt wird.
22
+ Das Modell unterstützt **Deutsch** und **Englisch** und dient als reine Ausgangsbasis für das Pretraining.
23
+
24
+ > **WICHTIG:**
25
+ > **Dieses Modell ist untrainiert!**
26
+ > Es wurde lediglich der Tokenizer initialisiert, das Modell selbst ist komplett untrainiert (“random init”).
27
+ > Für jegliche sinnvolle Nutzung – auch Tests oder Experimente – ist ein vollständiges Pretraining **zwingend erforderlich**.
28
+
29
+ * **Typ:** Rolling LLM (untrainiert, nur Tokenizer)
30
+ * **Kompatibilität:** [Transformers](https://huggingface.co/docs/transformers) Library
31
+ * **Zweck:** Basis für Pretraining und experimentelle Zwecke im MaTeLiX-Ökosystem
32
+
33
+ ## Hinweis zur Architektur
34
+
35
+ Auch wenn im Code der Name `MistralForCausalLM` verwendet wird, handelt es sich **nicht um ein Mistral-Modell**.
36
+ Die Architektur wurde selbst entwickelt; der Name dient lediglich der technischen Kompatibilität mit der Hugging Face `transformers`-Bibliothek.
37
+
38
+ ## Nutzung im MaTeLiX Dashboard
39
+
40
+ Dieses Modell ist ausschließlich für die Nutzung innerhalb des MaTeLiX Trainingsdashboards bestimmt.
41
+ Eine Verwendung außerhalb dieser Plattform ist **nicht vorgesehen** und wird **nicht unterstützt**.
42
+
43
+ **Anwendung:**
44
+ Im MaTeLiX Dashboard dient dieses Modell als Ausgangspunkt für Pretraining-Experimente und Modell-Entwicklung.
45
+ Alle Trainings- und Feineinstellungen werden über das Dashboard gesteuert.
46
+
47
+ ## Technische Details
48
+
49
+ * **Architektur:** Eigene Entwicklung, Kompatibilität über `MistralForCausalLM`
50
+ * **Sprachen:** Deutsch, Englisch
51
+ * **Status:** Untrainiert, nur Tokenizer initialisiert
52
+ * **Trainingsdaten:** Noch keine (Pretraining erforderlich)
53
+ * **Hinweis:** Nicht für produktive Nutzung geeignet
54
+
55
+ ## Lizenz & Haftungsausschluss
56
+
57
+ Dieses Modell ist ausschließlich für Demonstrations-, Entwicklungs- und Trainingszwecke im MaTeLiX Trainingsdashboard vorgesehen.
58
+ MaTeLiX übernimmt keinerlei Haftung für Modellantworten, Fehler oder unerwünschtes Verhalten.
59
+ Für jede produktive oder externe Nutzung ist ein vollständiges Pretraining und ggf. weiteres Finetuning erforderlich.
60
+
61
+ ---
62
+
63
+ ## Kontakt
64
+
65
+ Fragen zur Nutzung oder zum Pretraining bitte an das MaTeLiX Support-Team.