burak commited on
Commit
8ea5a53
·
verified ·
1 Parent(s): 8585f42

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +64 -0
README.md ADDED
@@ -0,0 +1,64 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ ---
3
+ tags:
4
+ - text-generation
5
+ - pytorch
6
+ - llm
7
+ - custom-tokenizer
8
+ ---
9
+
10
+ # TinyLLM - Word-Level GPT Model (Türkçe)
11
+
12
+ Bu depo, Türkçe kelime düzeyinde bir GPT modelini içerir. Model, belirli bir soru-cevap formatındaki metin üzerinde eğitilmiştir.
13
+
14
+ ## Model Detayları
15
+ - **Mimari**: Custom GPT (Transformer tabanlı)
16
+ - **Tokenizasyon**: Kelime düzeyinde `WordTokenizer` sınıfı (NLTK punkt tabanlı)
17
+ - **Dil**: Türkçe
18
+ - **Özel Tokenlar**: {"<pad>": 0, "<unk>": 1, "<bos>": 2, "<eos>": 3}
19
+
20
+ ## Parametreler
21
+ - `n_embd`: 256
22
+ - `n_head`: 8
23
+ - `n_layer`: 6
24
+ - `block_size`: 128
25
+ - `dropout`: 0.1
26
+
27
+ ## Yükleme ve Kullanım
28
+
29
+ Bu modeli kullanmak için model ağırlıklarını ve tokenizer dosyalarını indirmeniz gerekmektedir. `WordTokenizer` sınıfının ve model mimarisinin tanımı eğitim kodunda bulunmaktadır.
30
+
31
+ ```python
32
+ # Örnek kullanım (eğitim kodundan ilgili sınıfları kopyalayınız)
33
+ # from huggingface_hub import hf_hub_download
34
+ # import torch.nn as nn
35
+ # ... (WordTokenizer ve TinyLLM sınıfları buraya gelecek) ...
36
+
37
+ # model_path = hf_hub_download(repo_id="syko818121/tiny-llm-word-level", filename="pytorch_model.bin")
38
+ # word_to_id_path = hf_hub_download(repo_id="syko818121/tiny-llm-word-level", filename="tokenizer_word_to_id.json")
39
+ # id_to_word_path = hf_hub_download(repo_id="syko818121/tiny-llm-word-level", filename="tokenizer_id_to_word.json")
40
+
41
+ # with open(word_to_id_path, "r", encoding="utf-8") as f:
42
+ # word_to_id_loaded = json.load(f)
43
+ # with open(id_to_word_path, "r", encoding="utf-8") as f:
44
+ # id_to_word_loaded = json.load(f)
45
+
46
+ # special_tokens_loaded = {"<pad>": 0, "<unk>": 1, "<bos>": 2, "<eos>": 3}
47
+ # tokenizer_loaded = WordTokenizer(word_to_id_loaded, id_to_word_loaded, special_tokens_loaded)
48
+ # vocab_size_loaded = tokenizer_loaded.vocab_size
49
+
50
+ # model_loaded = TinyLLM(vocab_size_loaded, special_tokens_loaded)
51
+ # model_loaded.load_state_dict(torch.load(model_path, map_location='cpu'))
52
+ # model_loaded.eval()
53
+
54
+ # # Metin üretimi
55
+ # start_text = "Soru: Neden ağaç dikmeliyiz?"
56
+ # input_tokens = tokenizer_loaded.encode(start_text)
57
+ # input_tokens = [tokenizer_loaded.special_tokens['<bos>']] + input_tokens
58
+ # context = torch.tensor([input_tokens], dtype=torch.long)
59
+
60
+ # generated_tokens = model_loaded.generate(context, max_new_tokens=50)[0].tolist()
61
+ # decoded_response = tokenizer_loaded.decode(generated_tokens[len(input_tokens):])
62
+
63
+ # print(f"Üretilen Metin: cevap : bağlar . soru : duyar artırmayı sağlar ve bardağı yere düşürürsen ne işe yarar ? cevap : gelecekteki alt satıra vermemelisin . soru : vücudundaki en sert bir yalan söylememeliyiz ? cevap : hediye amacı nedir ? cevap : itfaiyeyi ( sıvının içinde erir ve düşüncelerini anlamaya çalışmaktır")
64
+ ```