Update README.md
Browse files
README.md
CHANGED
|
@@ -10,6 +10,8 @@ EvaGPT-German-v8.8 ist ein deutsches Vokabular-Modell, das für die Nutzung in S
|
|
| 10 |
- **Modellname**: EvaGPT-German-v8.8
|
| 11 |
- **Sprachen**: Deutsch
|
| 12 |
- **Trainingsmethode**: Train from Scratch mit [LLaMA](https://github.com/ggerganov/llama.cpp)
|
|
|
|
|
|
|
| 13 |
|
| 14 |
## Features
|
| 15 |
|
|
@@ -28,7 +30,7 @@ Bevor du beginnst, stelle sicher, dass du die folgenden Voraussetzungen erfüllt
|
|
| 28 |
|
| 29 |
### Installation
|
| 30 |
|
| 31 |
-
Das Modell kann direkt
|
| 32 |
|
| 33 |
```bash
|
| 34 |
pip install huggingface_hub
|
|
@@ -42,7 +44,7 @@ Um EvaGPT-German-v8.8 in deinem Projekt zu verwenden, folge diesen Schritten:
|
|
| 42 |
from llama_cpp import LLaMATokenizer, LLaMAModel
|
| 43 |
|
| 44 |
# Lade das Vokabular
|
| 45 |
-
tokenizer = LLaMATokenizer.from_pretrained("
|
| 46 |
|
| 47 |
# Initialisiere das Model (Train from Scratch)
|
| 48 |
model = LLaMAModel(tokenizer=tokenizer, config=...)
|
|
@@ -72,7 +74,7 @@ Hier ist ein Beispielskript, das verwendet werden kann, um ein Sprachmodell von
|
|
| 72 |
|
| 73 |
### Erläuterungen zu den Parametern:
|
| 74 |
|
| 75 |
-
- `--vocab-model`: Pfad zum Vokabularmodell (
|
| 76 |
- `--ctx`: Kontextgröße (1024 Tokens).
|
| 77 |
- `--embd`: Größe der Embeddings (512).
|
| 78 |
- `--head`: Anzahl der Attention Heads (8).
|
|
|
|
| 10 |
- **Modellname**: EvaGPT-German-v8.8
|
| 11 |
- **Sprachen**: Deutsch
|
| 12 |
- **Trainingsmethode**: Train from Scratch mit [LLaMA](https://github.com/ggerganov/llama.cpp)
|
| 13 |
+
- **Modell-Datei**: `ggml-model-eva-f16.gguf`
|
| 14 |
+
- **Modell-Repository**: [MTSmash/EvaGPT-Vokabel-Model](https://huggingface.co/MTSmash/EvaGPT-Vokabel-Model)
|
| 15 |
|
| 16 |
## Features
|
| 17 |
|
|
|
|
| 30 |
|
| 31 |
### Installation
|
| 32 |
|
| 33 |
+
Das Modell kann direkt von Hugging Face heruntergeladen werden:
|
| 34 |
|
| 35 |
```bash
|
| 36 |
pip install huggingface_hub
|
|
|
|
| 44 |
from llama_cpp import LLaMATokenizer, LLaMAModel
|
| 45 |
|
| 46 |
# Lade das Vokabular
|
| 47 |
+
tokenizer = LLaMATokenizer.from_pretrained("MTSmash/EvaGPT-Vokabel-Model")
|
| 48 |
|
| 49 |
# Initialisiere das Model (Train from Scratch)
|
| 50 |
model = LLaMAModel(tokenizer=tokenizer, config=...)
|
|
|
|
| 74 |
|
| 75 |
### Erläuterungen zu den Parametern:
|
| 76 |
|
| 77 |
+
- `--vocab-model`: Pfad zum Vokabularmodell (`ggml-model-eva-f16.gguf`).
|
| 78 |
- `--ctx`: Kontextgröße (1024 Tokens).
|
| 79 |
- `--embd`: Größe der Embeddings (512).
|
| 80 |
- `--head`: Anzahl der Attention Heads (8).
|