| | --- |
| | license: apache-2.0 |
| | base_model: mhenrichsen/danskgpt-tiny |
| | tags: |
| | - generated_from_trainer |
| | widget: |
| | - text: "<|im_start|>system\nDu er en hjælpsom assistent.<|im_end|>\n<|im_start|>user\nHvad er skak?<|im_end|>\n<|im_start|>assistant" |
| | example_title: "Skak" |
| | - text: "<|im_start|>system\nDu er en hjælpsom assistent.<|im_end|>\n<|im_start|>user\nHvem har lavet dig?<|im_end|>\n<|im_start|>assistant" |
| | example_title: "Skaber" |
| |
|
| | --- |
| | |
| |
|
| | # DanskGPT-tiny-chat |
| | <img src="danskgpt-tiny-chat.webp" width="500" height="500"> |
| |
|
| | DanskGPT-tiny-chat er chat-varianten af [mhenrichsen/danskgpt-tiny](https://huggingface.co/mhenrichsen/danskgpt-tiny) trænet på private chat datasæt. |
| |
|
| |
|
| | ## Model beskrivelse |
| |
|
| | Modellen er beregnet til at være en lightweight version af DanskGPT, der kan køre på næsten alle enheder. |
| |
|
| | ## Prompt template |
| |
|
| | Modellen er trænet med ChatML format (samme som OpenAI's modeller), og skal bruges på følgende måde: |
| |
|
| | ``` |
| | <|im_start|>system\nDu er en hjælpsom assistent.<|im_end|>\n<|im_start|>user\nHvad er skak?<|im_end|>\n<|im_start|>assistant |
| | |
| | ``` |
| |
|
| |
|
| | ## Inferens |
| |
|
| | ### Ollama |
| | Installér ollama: |
| | https://ollama.ai/download |
| |
|
| | Kør: |
| | ``` |
| | ollama run mhenrichsen/danskgpt-tiny-chat |
| | ``` |
| |
|
| |
|
| | ### vLLM |
| | ``` |
| | pip install vllm |
| | ``` |
| |
|
| |
|
| | ```python |
| | from vllm import LLM, SamplingParams |
| | |
| | sampling_params = SamplingParams(temperature=0.8, top_p=0.95, max_tokens=1024) |
| | llm = LLM(model="mhenrichsen/danskgpt-tiny-chat") |
| | |
| | system_message = "Du er en hjælpsom assistent." |
| | conversation_history = f"<|im_start|>system\n{system_message}<|im_end|>\n<|im_start|>user\n" |
| | while True: |
| | prompt = input("Bruger: ") |
| | new_prompt = f"{conversation_history}{prompt}<|im_end|>\n<|im_start|>assistant\n" |
| | |
| | outputs = llm.generate(new_prompt, sampling_params) |
| | for output in outputs: |
| | prompt = output.prompt |
| | generated_text = output.outputs[0].text |
| | print(f"AI: {generated_text!r}") |
| | conversation_history = f"{prompt}{generated_text!r}<|im_end|>\n<|im_start|>user\n" |
| | |
| | ``` |
| |
|
| | ### Endpoint med openai |
| | ``` |
| | pip install openai |
| | ``` |
| |
|
| |
|
| | ``` |
| | python -m vllm.entrypoints.openai.api_server --model mhenrichsen/danskgpt-tiny-chat |
| | ``` |
| | og brugt som erstatning for OpenAI's endpoints: |
| |
|
| | ```python |
| | from openai import OpenAI |
| | openai_api_key = "EMPTY" |
| | openai_api_base = "http://localhost:8000/v1" |
| | |
| | client = OpenAI( |
| | api_key=openai_api_key, |
| | base_url=openai_api_base, |
| | ) |
| | |
| | chat_response = client.chat.completions.create( |
| | model="mhenrichsen/danskgpt-tiny-chat", |
| | messages=[ |
| | {"role": "system", "content": "Du er en hjælpsom assistent. Giv mig et langt svar."}, |
| | {"role": "user", "content": "Fortæl mig om Danmark."}, |
| | ] |
| | ) |
| | print("AI:", chat_response) |
| | ``` |
| |
|
| |
|
| | ## Training results |
| |
|
| |
|
| | | Training Loss | Epoch | Step | Validation Loss | |
| | |:-------------:|:-----:|:----:|:---------------:| |
| | | 1.3599 | 0.0 | 1 | 1.4118 | |
| | | 0.7896 | 0.25 | 136 | 0.7813 | |
| | | 0.7339 | 0.5 | 272 | 0.7490 | |
| | | 0.7378 | 0.75 | 408 | 0.7285 | |
| | | 0.7112 | 1.0 | 544 | 0.7146 | |
| | | 0.6377 | 1.23 | 680 | 0.7135 | |
| | | 0.6192 | 1.49 | 816 | 0.7133 | |
| | | 0.5985 | 1.74 | 952 | 0.7073 | |
| | | 0.6067 | 1.99 | 1088 | 0.7026 | |
| | | 0.5139 | 2.22 | 1224 | 0.7167 | |
| | | 0.5099 | 2.47 | 1360 | 0.7193 | |
| | | 0.5217 | 2.72 | 1496 | 0.7168 | |
| |
|
| | ## Brug for hjælp? |
| | Har du spørgsmål eller brug for hjælp til LLM'er eller automatisering af tekstbaserede opgaver, så kontakt mig gerne. |
| |
|
| | /Mads |
| |
|