MTSmash commited on
Commit
66b80bd
·
verified ·
1 Parent(s): 6c3d45a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -3
README.md CHANGED
@@ -10,6 +10,8 @@ EvaGPT-German-v8.8 ist ein deutsches Vokabular-Modell, das für die Nutzung in S
10
  - **Modellname**: EvaGPT-German-v8.8
11
  - **Sprachen**: Deutsch
12
  - **Trainingsmethode**: Train from Scratch mit [LLaMA](https://github.com/ggerganov/llama.cpp)
 
 
13
 
14
  ## Features
15
 
@@ -28,7 +30,7 @@ Bevor du beginnst, stelle sicher, dass du die folgenden Voraussetzungen erfüllt
28
 
29
  ### Installation
30
 
31
- Das Modell kann direkt über Hugging Face heruntergeladen werden:
32
 
33
  ```bash
34
  pip install huggingface_hub
@@ -42,7 +44,7 @@ Um EvaGPT-German-v8.8 in deinem Projekt zu verwenden, folge diesen Schritten:
42
  from llama_cpp import LLaMATokenizer, LLaMAModel
43
 
44
  # Lade das Vokabular
45
- tokenizer = LLaMATokenizer.from_pretrained("dein-username/EvaGPT-German-v8.8")
46
 
47
  # Initialisiere das Model (Train from Scratch)
48
  model = LLaMAModel(tokenizer=tokenizer, config=...)
@@ -72,7 +74,7 @@ Hier ist ein Beispielskript, das verwendet werden kann, um ein Sprachmodell von
72
 
73
  ### Erläuterungen zu den Parametern:
74
 
75
- - `--vocab-model`: Pfad zum Vokabularmodell (EvaGPT-German-v8.8).
76
  - `--ctx`: Kontextgröße (1024 Tokens).
77
  - `--embd`: Größe der Embeddings (512).
78
  - `--head`: Anzahl der Attention Heads (8).
 
10
  - **Modellname**: EvaGPT-German-v8.8
11
  - **Sprachen**: Deutsch
12
  - **Trainingsmethode**: Train from Scratch mit [LLaMA](https://github.com/ggerganov/llama.cpp)
13
+ - **Modell-Datei**: `ggml-model-eva-f16.gguf`
14
+ - **Modell-Repository**: [MTSmash/EvaGPT-Vokabel-Model](https://huggingface.co/MTSmash/EvaGPT-Vokabel-Model)
15
 
16
  ## Features
17
 
 
30
 
31
  ### Installation
32
 
33
+ Das Modell kann direkt von Hugging Face heruntergeladen werden:
34
 
35
  ```bash
36
  pip install huggingface_hub
 
44
  from llama_cpp import LLaMATokenizer, LLaMAModel
45
 
46
  # Lade das Vokabular
47
+ tokenizer = LLaMATokenizer.from_pretrained("MTSmash/EvaGPT-Vokabel-Model")
48
 
49
  # Initialisiere das Model (Train from Scratch)
50
  model = LLaMAModel(tokenizer=tokenizer, config=...)
 
74
 
75
  ### Erläuterungen zu den Parametern:
76
 
77
+ - `--vocab-model`: Pfad zum Vokabularmodell (`ggml-model-eva-f16.gguf`).
78
  - `--ctx`: Kontextgröße (1024 Tokens).
79
  - `--embd`: Größe der Embeddings (512).
80
  - `--head`: Anzahl der Attention Heads (8).