omarkamali commited on
Commit
42db662
·
verified ·
1 Parent(s): 6af90c4

Upload all models and assets for azb (latest)

Browse files
This view is limited to 50 files because it contains too many changes.   See raw diff
Files changed (50) hide show
  1. .gitattributes +1 -0
  2. README.md +201 -166
  3. models/embeddings/aligned/azb_128d.bin +3 -0
  4. models/embeddings/aligned/azb_128d.meta.json +1 -0
  5. models/embeddings/aligned/azb_128d.projection.npy +3 -0
  6. models/embeddings/aligned/azb_128d_metadata.json +8 -0
  7. models/embeddings/aligned/azb_32d.bin +3 -0
  8. models/embeddings/aligned/azb_32d.meta.json +1 -0
  9. models/embeddings/aligned/azb_32d.projection.npy +3 -0
  10. models/embeddings/aligned/azb_32d_metadata.json +8 -0
  11. models/embeddings/aligned/azb_64d.bin +3 -0
  12. models/embeddings/aligned/azb_64d.meta.json +1 -0
  13. models/embeddings/aligned/azb_64d.projection.npy +3 -0
  14. models/embeddings/aligned/azb_64d_metadata.json +8 -0
  15. models/embeddings/monolingual/azb_128d.bin +2 -2
  16. models/embeddings/monolingual/azb_128d_metadata.json +1 -1
  17. models/embeddings/monolingual/azb_32d.bin +2 -2
  18. models/embeddings/monolingual/azb_32d_metadata.json +1 -1
  19. models/embeddings/monolingual/azb_64d.bin +2 -2
  20. models/embeddings/monolingual/azb_64d_metadata.json +1 -1
  21. models/subword_markov/azb_markov_ctx1_subword.parquet +2 -2
  22. models/subword_markov/azb_markov_ctx1_subword_metadata.json +2 -2
  23. models/subword_markov/azb_markov_ctx2_subword.parquet +2 -2
  24. models/subword_markov/azb_markov_ctx2_subword_metadata.json +2 -2
  25. models/subword_markov/azb_markov_ctx3_subword.parquet +2 -2
  26. models/subword_markov/azb_markov_ctx3_subword_metadata.json +2 -2
  27. models/subword_markov/azb_markov_ctx4_subword.parquet +2 -2
  28. models/subword_markov/azb_markov_ctx4_subword_metadata.json +2 -2
  29. models/subword_ngram/azb_2gram_subword.parquet +2 -2
  30. models/subword_ngram/azb_2gram_subword_metadata.json +2 -2
  31. models/subword_ngram/azb_3gram_subword.parquet +2 -2
  32. models/subword_ngram/azb_3gram_subword_metadata.json +2 -2
  33. models/subword_ngram/azb_4gram_subword.parquet +2 -2
  34. models/subword_ngram/azb_4gram_subword_metadata.json +2 -2
  35. models/subword_ngram/azb_5gram_subword.parquet +3 -0
  36. models/subword_ngram/azb_5gram_subword_metadata.json +7 -0
  37. models/tokenizer/azb_tokenizer_16k.model +2 -2
  38. models/tokenizer/azb_tokenizer_16k.vocab +0 -0
  39. models/tokenizer/azb_tokenizer_32k.model +2 -2
  40. models/tokenizer/azb_tokenizer_32k.vocab +0 -0
  41. models/tokenizer/azb_tokenizer_64k.model +2 -2
  42. models/tokenizer/azb_tokenizer_64k.vocab +0 -0
  43. models/tokenizer/azb_tokenizer_8k.model +2 -2
  44. models/tokenizer/azb_tokenizer_8k.vocab +0 -0
  45. models/vocabulary/azb_vocabulary.parquet +2 -2
  46. models/vocabulary/azb_vocabulary_metadata.json +9 -9
  47. models/word_markov/azb_markov_ctx1_word.parquet +2 -2
  48. models/word_markov/azb_markov_ctx1_word_metadata.json +2 -2
  49. models/word_markov/azb_markov_ctx2_word.parquet +2 -2
  50. models/word_markov/azb_markov_ctx2_word_metadata.json +2 -2
.gitattributes CHANGED
@@ -39,3 +39,4 @@ visualizations/position_encoding_comparison.png filter=lfs diff=lfs merge=lfs -t
39
  visualizations/tsne_sentences.png filter=lfs diff=lfs merge=lfs -text
40
  visualizations/tsne_words.png filter=lfs diff=lfs merge=lfs -text
41
  visualizations/zipf_law.png filter=lfs diff=lfs merge=lfs -text
 
 
39
  visualizations/tsne_sentences.png filter=lfs diff=lfs merge=lfs -text
40
  visualizations/tsne_words.png filter=lfs diff=lfs merge=lfs -text
41
  visualizations/zipf_law.png filter=lfs diff=lfs merge=lfs -text
42
+ visualizations/embedding_tsne_multilingual.png filter=lfs diff=lfs merge=lfs -text
README.md CHANGED
@@ -1,6 +1,6 @@
1
  ---
2
  language: azb
3
- language_name: AZB
4
  language_family: turkic_oghuz
5
  tags:
6
  - wikilangs
@@ -10,11 +10,21 @@ tags:
10
  - n-gram
11
  - markov
12
  - wikipedia
 
 
 
 
 
 
 
 
 
 
13
  - monolingual
14
  - family-turkic_oghuz
15
  license: mit
16
  library_name: wikilangs
17
- pipeline_tag: feature-extraction
18
  datasets:
19
  - omarkamali/wikipedia-monthly
20
  dataset_info:
@@ -23,20 +33,20 @@ dataset_info:
23
  metrics:
24
  - name: best_compression_ratio
25
  type: compression
26
- value: 4.148
27
  - name: best_isotropy
28
  type: isotropy
29
- value: 0.8282
30
  - name: vocabulary_size
31
  type: vocab
32
  value: 0
33
  generated: 2026-01-03
34
  ---
35
 
36
- # AZB - Wikilangs Models
37
  ## Comprehensive Research Report & Full Ablation Study
38
 
39
- This repository contains NLP models trained and evaluated by Wikilangs, specifically on **AZB** Wikipedia data.
40
  We analyze tokenizers, n-gram models, Markov chains, vocabulary statistics, and word embeddings.
41
 
42
  ## 📋 Repository Contents
@@ -60,7 +70,7 @@ We analyze tokenizers, n-gram models, Markov chains, vocabulary statistics, and
60
  - [3. Markov Chain Evaluation](#3-markov-chain-evaluation)
61
  - [4. Vocabulary Analysis](#4-vocabulary-analysis)
62
  - [5. Word Embeddings Evaluation](#5-word-embeddings-evaluation)
63
- - [6. Morphological Analysis (Experimental)](#6-morphological-analysis)
64
  - [7. Summary & Recommendations](#7-summary--recommendations)
65
  - [Metrics Glossary](#appendix-metrics-glossary--interpretation-guide)
66
  - [Visualizations Index](#visualizations-index)
@@ -80,47 +90,47 @@ We analyze tokenizers, n-gram models, Markov chains, vocabulary statistics, and
80
 
81
  | Vocab Size | Compression | Avg Token Len | UNK Rate | Total Tokens |
82
  |------------|-------------|---------------|----------|--------------|
83
- | **8k** | 3.135x | 3.14 | 0.5011% | 364,218 |
84
- | **16k** | 3.510x | 3.51 | 0.5610% | 325,334 |
85
- | **32k** | 3.852x | 3.86 | 0.6157% | 296,427 |
86
- | **64k** | 4.148x 🏆 | 4.15 | 0.6629% | 275,291 |
87
 
88
  ### Tokenization Examples
89
 
90
  Below are sample sentences tokenized with each vocabulary size:
91
 
92
- **Sample 1:** `قالیکتیس (، ، ، ) ییٛرتیجیلار دسته‌سینه عایید حئیوان نؤعو. قایناقلار سیراسینا گؤ...`
93
 
94
  | Vocab | Tokens | Count |
95
  |-------|--------|-------|
96
- | 8k | `▁قا لیک تیس ▁(، ▁، ▁، ▁) ▁ییٛرتیجیلار ▁دسته ▁سینه ... (+8 more)` | 18 |
97
- | 16k | `▁قا لیک تیس ▁(، ▁، ▁، ▁) ▁ییٛرتیجیلار ▁دسته ▁سینه ... (+8 more)` | 18 |
98
- | 32k | `▁قا لیک تیس ▁(، ▁، ▁، ▁) ▁ییٛرتیجیلار ▁دسته ▁سینه ... (+8 more)` | 18 |
99
- | 64k | `▁قا لیک تیس ▁(، ▁، ▁، ▁) ▁ییٛرتیجیلار ▁دسته ▁سینه ... (+8 more)` | 18 |
100
 
101
- **Sample 2:** `هیندوستان اؤلکه‌سینین کرالا ایالتینده بیر شهر دیر. بۇ شهرده مالایالم دیلی و اینگ...`
102
 
103
  | Vocab | Tokens | Count |
104
  |-------|--------|-------|
105
- | 8k | `▁هیندوستان ▁اؤلکه ▁سینین ▁کرالا ▁ایالتینده ▁بیر ▁شهر ▁دیر . ▁بۇ ... (+10 more)` | 20 |
106
- | 16k | `▁هیندوستان ▁اؤلکه ▁سینین ▁کرالا ▁ایالتینده ▁بیر ▁شهر ▁دیر . ▁بۇ ... (+10 more)` | 20 |
107
- | 32k | `▁هیندوستان ▁اؤلکه ▁سینین ▁کرالا ▁ایالتینده ▁بیر ▁شهر ▁دیر . ▁بۇ ... (+10 more)` | 20 |
108
- | 64k | `▁هیندوستان ▁اؤلکه ▁سینین ▁کرالا ▁ایالتینده ▁بیر ▁شهر ▁دیر . ▁بۇ ... (+10 more)` | 20 |
109
 
110
- **Sample 3:** `آرقا, کارناتاکا Karnataka) هیندوستان اؤلکه‌سینین کارناتاکا ایالتینده بیر کند دیر...`
111
 
112
  | Vocab | Tokens | Count |
113
  |-------|--------|-------|
114
- | 8k | `▁آر قا , ▁کارناتاکاkar n at aka ) ▁هیندوستان ... (+16 more)` | 26 |
115
- | 16k | `▁آر قا , ▁کارناتاکاkar nat aka ) ▁هیندوستان ▁اؤلکه ... (+15 more)` | 25 |
116
- | 32k | `▁آر قا , ▁کارناتاکاkarnataka ) ▁هیندوستان ▁اؤلکه ▁سینین ▁کارناتاکا ... (+13 more)` | 23 |
117
- | 64k | `▁آر قا , ▁کارناتاکاkarnataka ) ▁هیندوستان ▁اؤلکه ▁سینین ▁کارناتاکا ... (+13 more)` | 23 |
118
 
119
 
120
  ### Key Findings
121
 
122
- - **Best Compression:** 64k achieves 4.148x compression
123
- - **Lowest UNK Rate:** 8k with 0.5011% unknown tokens
124
  - **Trade-off:** Larger vocabularies improve compression but increase model size
125
  - **Recommendation:** 32k vocabulary provides optimal balance for production use
126
 
@@ -137,12 +147,14 @@ Below are sample sentences tokenized with each vocabulary size:
137
 
138
  | N-gram | Variant | Perplexity | Entropy | Unique N-grams | Top-100 Coverage | Top-1000 Coverage |
139
  |--------|---------|------------|---------|----------------|------------------|-------------------|
140
- | **2-gram** | Word | 8,048 | 12.97 | 158,908 | 25.7% | 56.1% |
141
- | **2-gram** | Subword | 528 🏆 | 9.04 | 12,648 | 51.6% | 95.7% |
142
- | **3-gram** | Word | 10,249 | 13.32 | 236,749 | 22.6% | 53.6% |
143
- | **3-gram** | Subword | 3,765 | 11.88 | 106,644 | 23.1% | 62.4% |
144
- | **4-gram** | Word | 17,175 | 14.07 | 426,395 | 19.0% | 47.9% |
145
- | **4-gram** | Subword | 15,100 | 13.88 | 581,225 | 14.6% | 44.8% |
 
 
146
 
147
  ### Top 5 N-grams by Size
148
 
@@ -150,68 +162,88 @@ Below are sample sentences tokenized with each vocabulary size:
150
 
151
  | Rank | N-gram | Count |
152
  |------|--------|-------|
153
- | 1 | `ایشلدنلری طرفیندن` | 75,584 |
154
- | 2 | `مقاله‌سیندن گؤتورولوبدور` | 75,503 |
155
- | 3 | `ویکی‌پدیاسی‌نین ایشلدنلری` | 73,734 |
156
- | 4 | `اینگیلیسجه ویکی‌پدیاسی‌نین` | 71,132 |
157
- | 5 | `قایناق‌لار اینگیلیسجه` | 70,880 |
158
 
159
  **3-grams (Word):**
160
 
161
  | Rank | N-gram | Count |
162
  |------|--------|-------|
163
- | 1 | `ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن` | 73,734 |
164
- | 2 | `اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری` | 71,132 |
165
- | 3 | `قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین` | 70,806 |
166
- | 4 | `بیر یاشاییش منطقه‌سی‌دیر` | 40,399 |
167
  | 5 | `بیر کند دیر` | 30,448 |
168
 
169
  **4-grams (Word):**
170
 
171
  | Rank | N-gram | Count |
172
  |------|--------|-------|
173
- | 1 | `اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن` | 71,132 |
174
- | 2 | `قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری` | 70,806 |
175
- | 3 | `سوْن نۆفوس ساییمی اساسيندا` | 24,568 |
176
- | 4 | `شهرلرین لیستی قایناق‌لار اینگیلیسجه` | 22,937 |
177
- | 5 | `لیستی قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین` | 22,937 |
 
 
 
 
 
 
 
 
 
 
178
 
179
  **2-grams (Subword):**
180
 
181
  | Rank | N-gram | Count |
182
  |------|--------|-------|
183
- | 1 | `ی ن` | 1,868,991 |
184
- | 2 | `_ ا` | 1,658,104 |
185
- | 3 | `ی _` | 1,437,263 |
186
- | 4 | `ا ی` | 1,393,221 |
187
- | 5 | `ن _` | 1,215,806 |
188
 
189
  **3-grams (Subword):**
190
 
191
  | Rank | N-gram | Count |
192
  |------|--------|-------|
193
- | 1 | `_ ا ی` | 717,380 |
194
- | 2 | `ی ن د` | 658,977 |
195
- | 3 | `د ه _` | 585,522 |
196
- | 4 | `ل ا ر` | 580,226 |
197
- | 5 | `ا ی ن` | 470,621 |
198
 
199
  **4-grams (Subword):**
200
 
201
  | Rank | N-gram | Count |
202
  |------|--------|-------|
203
- | 1 | `ن د ه _` | 347,347 |
204
- | 2 | `ل ا ر _` | 329,379 |
205
- | 3 | `ی ن د ه` | 320,994 |
206
- | 4 | `_ ب ی ر` | 258,707 |
207
- | 5 | `ن ی ن _` | 257,628 |
 
 
 
 
 
 
 
 
 
 
208
 
209
 
210
  ### Key Findings
211
 
212
  - **Best Perplexity:** 2-gram (subword) with 528
213
  - **Entropy Trend:** Decreases with larger n-grams (more predictable)
214
- - **Coverage:** Top-1000 patterns cover ~45% of corpus
215
  - **Recommendation:** 4-gram or 5-gram for best predictive performance
216
 
217
  ---
@@ -227,14 +259,14 @@ Below are sample sentences tokenized with each vocabulary size:
227
 
228
  | Context | Variant | Avg Entropy | Perplexity | Branching Factor | Unique Contexts | Predictability |
229
  |---------|---------|-------------|------------|------------------|-----------------|----------------|
230
- | **1** | Word | 0.6640 | 1.584 | 5.09 | 726,930 | 33.6% |
231
- | **1** | Subword | 1.0592 | 2.084 | 9.07 | 3,409 | 0.0% |
232
- | **2** | Word | 0.1970 | 1.146 | 1.48 | 3,693,091 | 80.3% |
233
- | **2** | Subword | 0.9308 | 1.906 | 6.57 | 30,905 | 6.9% |
234
- | **3** | Word | 0.0689 | 1.049 | 1.14 | 5,447,170 | 93.1% |
235
- | **3** | Subword | 0.8408 | 1.791 | 4.70 | 203,056 | 15.9% |
236
- | **4** | Word | 0.0340 🏆 | 1.024 | 1.07 | 6,178,524 | 96.6% |
237
- | **4** | Subword | 0.7000 | 1.625 | 3.22 | 953,883 | 30.0% |
238
 
239
  ### Generated Text Samples (Word-based)
240
 
@@ -242,27 +274,27 @@ Below are text samples generated from each word-based Markov chain model:
242
 
243
  **Context Size 1:**
244
 
245
- 1. `و شمشددیل سلطانلیغی ایله برابر ایدی قایناقلار شهرلری آمریکا بیرلشمیش ایالتلرینین ایداری بؤلوملری ائش...`
246
- 2. `بیر کند دیر و یا هچ اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن mountain a few years until 5`
247
- 3. `اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن mountain wilbert minnesota مقاله‌سیندن گؤتورولوبدور ۸ آ...`
248
 
249
  **Context Size 2:**
250
 
251
- 1. `ایشلدنلری طرفیندن مقاله‌سیندن گؤتورولوبدور ۸ آقوست تاریخینده یوْخلانیلیبدیر شهرلری en güləh`
252
- 2. `مقاله‌سیندن گؤتورولوبدور ۳۰ نوْوامبر تاریخینده یوْخلانیلیبدیر کولوبلاری en araks ararat fc مقاله‌سین...`
253
- 3. `ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن indiana مقاله‌سیندن گؤتورولوبدور ۲۱ دسامبر تاریخینده یوْخلانیلیبدی...`
254
 
255
  **Context Size 3:**
256
 
257
- 1. `ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن مقاله‌سیندن گؤتورولوبدور ۳۰ نوْوامبر تاریخینده یوْخلانیلیبدیر گؤرو...`
258
- 2. `اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن rutherfurd مقاله‌سیندن گؤتورولوبدور ۲۲ ژانویه تاریخینده...`
259
- 3. `قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن مقاله‌سیندن گؤتورولوبدور ۱۹ جولای یوْخلانیلی...`
260
 
261
  **Context Size 4:**
262
 
263
- 1. `اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن مقاله‌سیندن گؤتورولوبدور ۸ آقوست تاریخینده یوْخلانیلیبد...`
264
- 2. `قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن georgia مقاله‌سیندن گؤتورولوبدور ۸ آقوست تار...`
265
- 3. `سوْن نۆفوس ساییمی اساسيندا ۱۳۷ نفر ایمیش و ویسوچینا اوستانیندا یئرلشیب بۆتون چک‌دا اوْلدوغو کیمی بۇ ...`
266
 
267
 
268
  ### Generated Text Samples (Subword-based)
@@ -271,34 +303,34 @@ Below are text samples generated from each subword-based Markov chain model:
271
 
272
  **Context Size 1:**
273
 
274
- 1. `_متیشاورله‌ستبشلی`
275
- 2. `یتا_d_by_jottiep`
276
- 3. `الاق‌لر)_ژادالين_`
277
 
278
  **Context Size 2:**
279
 
280
- 1. `ین_حیازیل_دیکان_ا`
281
- 2. `_ایلدا_۹_جی_giran`
282
- 3. `ی_حافع_سان_آماری_`
283
 
284
  **Context Size 3:**
285
 
286
- 1. `_ایدان_عوضوو._۲۷۳_`
287
- 2. `ینده_روس_سال_منطقه‌`
288
- 3. `ده_یوْخلانی_آما_خوب`
289
 
290
  **Context Size 4:**
291
 
292
- 1. `نده_یوْخلانیلیبدیر).`
293
- 2. `لار_یولو_۳۰_دسامبر_`
294
- 3. `ینده_هر_گونئی_کاروا`
295
 
296
 
297
  ### Key Findings
298
 
299
  - **Best Predictability:** Context-4 (word) with 96.6% predictability
300
  - **Branching Factor:** Decreases with context size (more deterministic)
301
- - **Memory Trade-off:** Larger contexts require more storage (953,883 contexts)
302
  - **Recommendation:** Context-3 or Context-4 for text generation
303
 
304
  ---
@@ -314,48 +346,48 @@ Below are text samples generated from each subword-based Markov chain model:
314
 
315
  | Metric | Value |
316
  |--------|-------|
317
- | Vocabulary Size | 271,198 |
318
- | Total Tokens | 12,478,531 |
319
- | Mean Frequency | 46.01 |
320
  | Median Frequency | 3 |
321
- | Frequency Std Dev | 1145.11 |
322
 
323
  ### Most Common Words
324
 
325
  | Rank | Word | Frequency |
326
  |------|------|-----------|
327
- | 1 | و | 284,031 |
328
- | 2 | بیر | 169,280 |
329
- | 3 | اینگیلیسجه | 149,737 |
330
- | 4 | قایناقلار | 141,945 |
331
- | 5 | the | 114,439 |
332
- | 6 | تاریخینده | 92,079 |
333
- | 7 | قایناق‌لار | 90,963 |
334
- | 8 | ایلده | 83,679 |
335
- | 9 | شهرلری | 81,894 |
336
- | 10 | طرفیندن | 80,132 |
337
 
338
  ### Least Common Words (from vocabulary)
339
 
340
  | Rank | Word | Frequency |
341
  |------|------|-----------|
342
- | 1 | کساسیاسی | 2 |
343
- | 2 | کالابریز | 2 |
344
- | 3 | کونتینوا | 2 |
345
- | 4 | تحقیق‌لری | 2 |
346
- | 5 | romanzo | 2 |
347
- | 6 | strage | 2 |
348
- | 7 | سۆره‌جینده | 2 |
349
- | 8 | ایلکه‌لر | 2 |
350
- | 9 | لائیکلیک | 2 |
351
- | 10 | شاسکوه | 2 |
352
 
353
  ### Zipf's Law Analysis
354
 
355
  | Metric | Value |
356
  |--------|-------|
357
- | Zipf Coefficient | 1.1609 |
358
- | R² (Goodness of Fit) | 0.995521 |
359
  | Adherence Quality | **excellent** |
360
 
361
  ### Coverage Analysis
@@ -371,7 +403,7 @@ Below are text samples generated from each subword-based Markov chain model:
371
 
372
  - **Zipf Compliance:** R²=0.9955 indicates excellent adherence to Zipf's law
373
  - **High Frequency Dominance:** Top 100 words cover 34.4% of corpus
374
- - **Long Tail:** 261,198 words needed for remaining 15.4% coverage
375
 
376
  ---
377
  ## 5. Word Embeddings Evaluation
@@ -387,37 +419,40 @@ Below are text samples generated from each subword-based Markov chain model:
387
 
388
  ### 5.1 Cross-Lingual Alignment
389
 
390
- > *Note: Multilingual alignment visualization not available for this language.*
 
 
391
 
392
 
393
  ### 5.2 Model Comparison
394
 
395
  | Model | Dimension | Isotropy | Semantic Density | Alignment R@1 | Alignment R@10 |
396
  |-------|-----------|----------|------------------|---------------|----------------|
397
- | **mono_32d** | 32 | 0.8282 🏆 | 0.3614 | N/A | N/A |
398
- | **mono_64d** | 64 | 0.7952 | 0.3099 | N/A | N/A |
399
- | **mono_128d** | 128 | 0.7570 | 0.2493 | N/A | N/A |
 
 
 
400
 
401
  ### Key Findings
402
 
403
- - **Best Isotropy:** mono_32d with 0.8282 (more uniform distribution)
404
- - **Semantic Density:** Average pairwise similarity of 0.3069. Lower values indicate better semantic separation.
405
- - **Alignment Quality:** No aligned models evaluated in this run.
406
  - **Recommendation:** 128d aligned for best cross-lingual performance
407
 
408
  ---
409
  ## 6. Morphological Analysis (Experimental)
410
 
411
- > ⚠️ **Warning:** This language shows low morphological productivity. The statistical signals used for this analysis may be noisy or less reliable than for morphologically rich languages.
412
-
413
  This section presents an automated morphological analysis derived from the statistical divergence between word-level and subword-level models. By analyzing where subword predictability spikes and where word-level coverage fails, we can infer linguistic structures without supervised data.
414
 
415
  ### 6.1 Productivity & Complexity
416
 
417
  | Metric | Value | Interpretation | Recommendation |
418
  |--------|-------|----------------|----------------|
419
- | Productivity Index | **0.000** | Low morphological productivity | ⚠️ Likely unreliable |
420
- | Idiomaticity Gap | **-1.000** | Low formulaic content | - |
421
 
422
  ### 6.2 Affix Inventory (Productive Units)
423
 
@@ -430,8 +465,8 @@ These are the most productive prefixes and suffixes identified by sampling the v
430
  #### Productive Suffixes
431
  | Suffix | Examples |
432
  |--------|----------|
433
- | `-ین` | ائتدیگی‌نین, دالینین, لشکرینین |
434
- | `-ان` | سيران, کاپیتان, تاپیلمایان |
435
 
436
  ### 6.3 Bound Stems (Lexical Roots)
437
 
@@ -439,18 +474,18 @@ Bound stems are high-frequency subword units that are semantically cohesive but
439
 
440
  | Stem | Cohesion | Substitutability | Examples |
441
  |------|----------|------------------|----------|
442
- | `رلری` | 1.93x | 205 contexts | ارلری, یرلری, دیرلری |
443
- | `اقلا` | 1.95x | 131 contexts | ناقلا, آیاقلا, آياقلا |
444
- | `قلار` | 2.11x | 54 contexts | لیقلار, حقلاری, ماقلار |
445
- | `تیند` | 1.93x | 72 contexts | تیندل, تینده, اتیندن |
446
- | `یبدی` | 2.32x | 31 contexts | آلیبدی, ییبدیر, گلیبدی |
447
- | `اریخ` | 1.93x | 41 contexts | تاریخ, تاریخه, ‌تاریخ |
448
- | `ولوب` | 1.70x | 60 contexts | کولوب, گولوب, سولوب |
449
- | `ئرلش` | 2.00x | 24 contexts | يئرلشن, یئرلشن, یئرلشه |
450
- | `ریخی` | 2.03x | 22 contexts | مریخی, ریخین, تاریخی |
451
- | `یناق` | 1.87x | 27 contexts | سیناق, قیناق, ایناق |
452
- | `هرلر` | 2.14x | 17 contexts | شهرلر, شهرلره, شهرلري |
453
- | `یلیس` | 1.56x | 43 contexts | هیلیس, یلیسی, تیلیس |
454
 
455
  ### 6.4 Affix Compatibility (Co-occurrence)
456
 
@@ -465,26 +500,26 @@ Using **Recursive Hierarchical Substitutability**, we decompose complex words in
465
 
466
  | Word | Suggested Split | Confidence | Stem |
467
  |------|-----------------|------------|------|
468
- | وطنداشلارینین | **`وطنداشلار-ین-ین`** | 6.0 | `وطنداشلار` |
469
- | تورپاق‌لارینین | **`تورپاق‌لار-ین-ین`** | 6.0 | `تورپاق‌لار` |
470
- | دئموکرات‌لارینین | **`دئموکرات‌لار-ین-ین`** | 6.0 | `دئموکرات‌لار` |
471
- | اوستانلارینان | **`اوستانلار-ین-ان`** | 6.0 | `اوستانلار` |
472
- | تولیدینین | **`تولید-ین-ین`** | 6.0 | `تولید` |
473
- | المنتلرینین | **`المنتلر-ین-ین`** | 6.0 | `المنتلر` |
474
- | جومهوریتلرین | **`جومهوریتلر-ین`** | 4.5 | `جومهوریتلر` |
475
- | سیمالارین | **`سیمالار-ین`** | 4.5 | `سیمالار` |
476
- | ژوآن‌لارین | **`ژوآن‌لار-ین`** | 4.5 | `ژوآن‌لار` |
477
- | ماشین‌لارین | **`ماشین‌لار-ین`** | 4.5 | `ماشین‌لار` |
478
- | بدوی‌لرین | **`بدوی��لر-ین`** | 4.5 | `بدوی‌لر` |
479
- | تبریزلیلرین | **`تبریزلیلر-ین`** | 4.5 | `تبریزلیلر` |
480
- | ناخوشلوقلارین | **`ناخوشلوقلار-ین`** | 4.5 | `ناخوشلوقلار` |
481
- | اویکونیمین | **`اویکونیم-ین`** | 4.5 | `اویکونیم` |
482
- | ائرککلرین | **`ائرککلر-ین`** | 4.5 | `ائرککلر` |
483
 
484
  ### 6.6 Linguistic Interpretation
485
 
486
  > **Automated Insight:**
487
- The language AZB appears to be more isolating or has a highly fixed vocabulary. Word-level models perform nearly as well as subword models, indicating fewer productive morphological processes.
488
 
489
  ---
490
  ## 7. Summary & Recommendations
@@ -711,4 +746,4 @@ MIT License - Free for academic and commercial use.
711
  ---
712
  *Generated by Wikilangs Models Pipeline*
713
 
714
- *Report Date: 2026-01-03 06:14:53*
 
1
  ---
2
  language: azb
3
+ language_name: South Azerbaijani
4
  language_family: turkic_oghuz
5
  tags:
6
  - wikilangs
 
10
  - n-gram
11
  - markov
12
  - wikipedia
13
+ - feature-extraction
14
+ - sentence-similarity
15
+ - tokenization
16
+ - n-grams
17
+ - markov-chain
18
+ - text-mining
19
+ - fasttext
20
+ - babelvec
21
+ - vocabulous
22
+ - vocabulary
23
  - monolingual
24
  - family-turkic_oghuz
25
  license: mit
26
  library_name: wikilangs
27
+ pipeline_tag: text-generation
28
  datasets:
29
  - omarkamali/wikipedia-monthly
30
  dataset_info:
 
33
  metrics:
34
  - name: best_compression_ratio
35
  type: compression
36
+ value: 4.154
37
  - name: best_isotropy
38
  type: isotropy
39
+ value: 0.8266
40
  - name: vocabulary_size
41
  type: vocab
42
  value: 0
43
  generated: 2026-01-03
44
  ---
45
 
46
+ # South Azerbaijani - Wikilangs Models
47
  ## Comprehensive Research Report & Full Ablation Study
48
 
49
+ This repository contains NLP models trained and evaluated by Wikilangs, specifically on **South Azerbaijani** Wikipedia data.
50
  We analyze tokenizers, n-gram models, Markov chains, vocabulary statistics, and word embeddings.
51
 
52
  ## 📋 Repository Contents
 
70
  - [3. Markov Chain Evaluation](#3-markov-chain-evaluation)
71
  - [4. Vocabulary Analysis](#4-vocabulary-analysis)
72
  - [5. Word Embeddings Evaluation](#5-word-embeddings-evaluation)
73
+ - [6. Morphological Analysis (Experimental)](#6--morphological-analysis-experimental)
74
  - [7. Summary & Recommendations](#7-summary--recommendations)
75
  - [Metrics Glossary](#appendix-metrics-glossary--interpretation-guide)
76
  - [Visualizations Index](#visualizations-index)
 
90
 
91
  | Vocab Size | Compression | Avg Token Len | UNK Rate | Total Tokens |
92
  |------------|-------------|---------------|----------|--------------|
93
+ | **8k** | 3.140x | 3.14 | 0.4916% | 361,073 |
94
+ | **16k** | 3.514x | 3.52 | 0.5501% | 322,683 |
95
+ | **32k** | 3.859x | 3.86 | 0.6041% | 293,823 |
96
+ | **64k** | 4.154x 🏆 | 4.16 | 0.6502% | 272,975 |
97
 
98
  ### Tokenization Examples
99
 
100
  Below are sample sentences tokenized with each vocabulary size:
101
 
102
+ **Sample 1:** `پوچتوووی ( ) روسیه اؤلکه‌سینده یئر آلان بیر کند دیر و آرخانقلسک اوبلاستیندا یئرل...`
103
 
104
  | Vocab | Tokens | Count |
105
  |-------|--------|-------|
106
+ | 8k | `▁پو چ ت وو وی ▁( ▁) ▁روسیه ▁اؤلکه ▁سینده ... (+12 more)` | 22 |
107
+ | 16k | `▁پو چ ت وو وی ▁( ▁) ▁روسیه ▁اؤلکه ▁سینده ... (+12 more)` | 22 |
108
+ | 32k | `▁پو چت وووی ▁( ▁) ▁روسیه ▁اؤلکه ▁سینده ▁یئر ▁آلان ... (+10 more)` | 20 |
109
+ | 64k | `▁پو چت وووی ▁( ▁) ▁روسیه ▁اؤلکه ▁سینده ▁یئر ▁آلان ... (+10 more)` | 20 |
110
 
111
+ **Sample 2:** `هیندوستان اؤلکه‌سینین کارناتاکا ایالتینده بیر کند دیر. بۇ کنده کانادا دیلی دانیش...`
112
 
113
  | Vocab | Tokens | Count |
114
  |-------|--------|-------|
115
+ | 8k | `▁هیندوستان ▁اؤلکه ▁سینین ▁کارناتاکا ▁ایالتینده ▁بیر ▁کند ▁دیر . ▁بۇ ... (+7 more)` | 17 |
116
+ | 16k | `▁هیندوستان ▁اؤلکه ▁سینین ▁کارناتاکا ▁ایالتینده ▁بیر ▁کند ▁دیر . ▁بۇ ... (+7 more)` | 17 |
117
+ | 32k | `▁هیندوستان ▁اؤلکه ▁سینین ▁کارناتاکا ▁ایالتینده ▁بیر ▁کند ▁دیر . ▁بۇ ... (+7 more)` | 17 |
118
+ | 64k | `▁هیندوستان ▁اؤلکه ▁سینین ▁کارناتاکا ▁ایالتینده ▁بیر ▁کند ▁دیر . ▁بۇ ... (+7 more)` | 17 |
119
 
120
+ **Sample 3:** `پیایو، روسیه ( ) روسیه اؤلکه‌سینده یئر آلان بیر کند دیر و مورمانسک اوبلاستیندا ی...`
121
 
122
  | Vocab | Tokens | Count |
123
  |-------|--------|-------|
124
+ | 8k | `▁پی ای و ، ▁روسیه ( ▁) ▁روسیه ▁اؤلکه ▁سینده ... (+14 more)` | 24 |
125
+ | 16k | `▁پی ای و ، ▁روسیه ( ) ▁روسیه ▁اؤلکه ▁سینده ... (+12 more)` | 22 |
126
+ | 32k | `▁پی ایو ، ▁روسیه( ) ▁روسیه ▁اؤلکه ▁سینده ▁یئر ... (+11 more)` | 21 |
127
+ | 64k | `▁پی ایو ، ▁روسیه( ) ▁روسیه ▁اؤلکه ▁سینده ▁یئر ... (+11 more)` | 21 |
128
 
129
 
130
  ### Key Findings
131
 
132
+ - **Best Compression:** 64k achieves 4.154x compression
133
+ - **Lowest UNK Rate:** 8k with 0.4916% unknown tokens
134
  - **Trade-off:** Larger vocabularies improve compression but increase model size
135
  - **Recommendation:** 32k vocabulary provides optimal balance for production use
136
 
 
147
 
148
  | N-gram | Variant | Perplexity | Entropy | Unique N-grams | Top-100 Coverage | Top-1000 Coverage |
149
  |--------|---------|------------|---------|----------------|------------------|-------------------|
150
+ | **2-gram** | Word | 8,053 | 12.98 | 158,968 | 25.7% | 56.1% |
151
+ | **2-gram** | Subword | 528 🏆 | 9.04 | 12,667 | 51.7% | 95.7% |
152
+ | **3-gram** | Word | 10,252 | 13.32 | 236,817 | 22.6% | 53.6% |
153
+ | **3-gram** | Subword | 3,765 | 11.88 | 106,797 | 23.2% | 62.4% |
154
+ | **4-gram** | Word | 17,203 | 14.07 | 427,241 | 19.0% | 47.9% |
155
+ | **4-gram** | Subword | 15,109 | 13.88 | 582,040 | 14.6% | 44.8% |
156
+ | **5-gram** | Word | 19,665 | 14.26 | 390,296 | 17.2% | 45.0% |
157
+ | **5-gram** | Subword | 37,921 | 15.21 | 1,605,166 | 11.7% | 37.8% |
158
 
159
  ### Top 5 N-grams by Size
160
 
 
162
 
163
  | Rank | N-gram | Count |
164
  |------|--------|-------|
165
+ | 1 | `ایشلدنلری طرفیندن` | 75,586 |
166
+ | 2 | `مقاله‌سیندن گؤتورولوبدور` | 75,505 |
167
+ | 3 | `ویکی‌پدیاسی‌نین ایشلدنلری` | 73,736 |
168
+ | 4 | `اینگیلیسجه ویکی‌پدیاسی‌نین` | 71,134 |
169
+ | 5 | `قایناق‌لار اینگیلیسجه` | 70,887 |
170
 
171
  **3-grams (Word):**
172
 
173
  | Rank | N-gram | Count |
174
  |------|--------|-------|
175
+ | 1 | `ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن` | 73,736 |
176
+ | 2 | `اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری` | 71,134 |
177
+ | 3 | `قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین` | 70,813 |
178
+ | 4 | `بیر یاشاییش منطقه‌سی‌دیر` | 40,398 |
179
  | 5 | `بیر کند دیر` | 30,448 |
180
 
181
  **4-grams (Word):**
182
 
183
  | Rank | N-gram | Count |
184
  |------|--------|-------|
185
+ | 1 | `اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن` | 71,134 |
186
+ | 2 | `قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری` | 70,813 |
187
+ | 3 | `سوْن نۆفوس ساییمی اساسيندا` | 24,567 |
188
+ | 4 | `شهرلرین لیستی قایناق‌لار اینگیلیسجه` | 22,936 |
189
+ | 5 | `لیستی قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین` | 22,936 |
190
+
191
+ **5-grams (Word):**
192
+
193
+ | Rank | N-gram | Count |
194
+ |------|--------|-------|
195
+ | 1 | `قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن` | 70,813 |
196
+ | 2 | `شهرلرین لیستی قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین` | 22,936 |
197
+ | 3 | `لیستی قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری` | 22,936 |
198
+ | 4 | `گؤتورولوبدور ۸ آقوست تاریخینده یوْخلانیلیبدیر` | 17,804 |
199
+ | 5 | `مقاله‌سیندن گؤتورولوبدور ۸ آقوست تاریخینده` | 17,804 |
200
 
201
  **2-grams (Subword):**
202
 
203
  | Rank | N-gram | Count |
204
  |------|--------|-------|
205
+ | 1 | `ی ن` | 1,870,834 |
206
+ | 2 | `_ ا` | 1,661,040 |
207
+ | 3 | `ی _` | 1,438,867 |
208
+ | 4 | `ا ی` | 1,394,440 |
209
+ | 5 | `ن _` | 1,218,001 |
210
 
211
  **3-grams (Subword):**
212
 
213
  | Rank | N-gram | Count |
214
  |------|--------|-------|
215
+ | 1 | `_ ا ی` | 718,299 |
216
+ | 2 | `ی ن د` | 659,203 |
217
+ | 3 | `د ه _` | 586,025 |
218
+ | 4 | `ل ا ر` | 581,126 |
219
+ | 5 | `ا ی ن` | 470,804 |
220
 
221
  **4-grams (Subword):**
222
 
223
  | Rank | N-gram | Count |
224
  |------|--------|-------|
225
+ | 1 | `ن د ه _` | 347,491 |
226
+ | 2 | `ل ا ر _` | 329,654 |
227
+ | 3 | `ی ن د ه` | 321,093 |
228
+ | 4 | `_ ب ی ر` | 258,934 |
229
+ | 5 | `ن ی ن _` | 257,847 |
230
+
231
+ **5-grams (Subword):**
232
+
233
+ | Rank | N-gram | Count |
234
+ |------|--------|-------|
235
+ | 1 | `ی ن د ه _` | 319,618 |
236
+ | 2 | `ق ا ی ن ا` | 236,232 |
237
+ | 3 | `_ ق ا ی ن` | 235,936 |
238
+ | 4 | `ی ن د ن _` | 199,409 |
239
+ | 5 | `ی ن گ ی ل` | 172,619 |
240
 
241
 
242
  ### Key Findings
243
 
244
  - **Best Perplexity:** 2-gram (subword) with 528
245
  - **Entropy Trend:** Decreases with larger n-grams (more predictable)
246
+ - **Coverage:** Top-1000 patterns cover ~38% of corpus
247
  - **Recommendation:** 4-gram or 5-gram for best predictive performance
248
 
249
  ---
 
259
 
260
  | Context | Variant | Avg Entropy | Perplexity | Branching Factor | Unique Contexts | Predictability |
261
  |---------|---------|-------------|------------|------------------|-----------------|----------------|
262
+ | **1** | Word | 0.6633 | 1.584 | 5.08 | 728,851 | 33.7% |
263
+ | **1** | Subword | 1.0599 | 2.085 | 9.06 | 3,419 | 0.0% |
264
+ | **2** | Word | 0.1969 | 1.146 | 1.48 | 3,698,118 | 80.3% |
265
+ | **2** | Subword | 0.9299 | 1.905 | 6.57 | 30,973 | 7.0% |
266
+ | **3** | Word | 0.0689 | 1.049 | 1.14 | 5,453,316 | 93.1% |
267
+ | **3** | Subword | 0.8407 | 1.791 | 4.70 | 203,342 | 15.9% |
268
+ | **4** | Word | 0.0340 🏆 | 1.024 | 1.07 | 6,184,673 | 96.6% |
269
+ | **4** | Subword | 0.6999 | 1.624 | 3.22 | 955,119 | 30.0% |
270
 
271
  ### Generated Text Samples (Word-based)
272
 
 
274
 
275
  **Context Size 1:**
276
 
277
+ 1. `و اؤلوملر باخیر دؤولت موزیک دوْغوملار ۲ مئی eamon gilmore shooter young artist awardbest breakthroug...`
278
+ 2. `بیر فوتبالیست هوجومچو موقعیتینده اوْیناییب قایناقلار ایلده آمریکالی سیاستچیلر میلادی ایلده آذربایجان...`
279
+ 3. `اینگیلیسجه phyllis and the new york آمریکانین نبراسکا ایالتینده بیر شهردیر و باتی آجورلو قصبه‌سینده ...`
280
 
281
  **Context Size 2:**
282
 
283
+ 1. `ایشلدنلری طرفیندن ballard مقاله‌سیندن گؤتورولوبدور ۳۰ نوْوامبر تاریخینده رالی قوزئی کارولینا ایالتین...`
284
+ 2. `مقاله‌سیندن گؤتورولوبدور ۲۲ آقوست تاریخینده یوْخلانیلیبدیر ایالتین شهرلری آمریکا بیرلشمیش ایالتلری ک...`
285
+ 3. `ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن piguet مقاله‌سیندن گؤتورولوبدور ۱۹ جولای یوْخلانیلیبدیر شهرلری en ...`
286
 
287
  **Context Size 3:**
288
 
289
+ 1. `ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن phosphate مقاله‌سیندن گؤتورولوبدور ۳۰ نوْوامبر تاریخینده یوْخلانیل...`
290
+ 2. `اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن mała مقاله‌سیندن گؤتورولوبدور ۱۲ آقوست تاریخینده یوْخلا...`
291
+ 3. `قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن nigra مقاله‌سیندن گؤتورولوبدور ۲۷ جولای تاری...`
292
 
293
  **Context Size 4:**
294
 
295
+ 1. `اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن tachov district مقاله‌سیندن گؤتورولوبدور ۱۹ جولای یوْخل...`
296
+ 2. `قایناق‌لار اینگیلیسجه ویکی‌پدیاسی‌نین ایشلدنلری طرفیندن reed مقاله‌سیندن گؤتورولوبدور ۲۲ ژانویه تاری...`
297
+ 3. `سوْن نۆفوس ساییمی اساسيندا نفر ایمیش قایناقلار جومهوریتینین شهرلری en bədəlan`
298
 
299
 
300
  ### Generated Text Samples (Subword-based)
 
303
 
304
  **Context Size 1:**
305
 
306
+ 1. `_طین_اینالرشه_می`
307
+ 2. `ینینویره_ب.st_آذ`
308
+ 3. `اؤلیلده_s_مول_کل`
309
 
310
  **Context Size 2:**
311
 
312
+ 1. `ینی_اوبونیرلرین_ش`
313
+ 2. `_این_چاری_اوربّع_د`
314
+ 3. `ی_حؤکواءنینه‌سیناق`
315
 
316
  **Context Size 3:**
317
 
318
+ 1. `_ایشتیرامبر_charah`
319
+ 2. `ینده_یئرلشیرکت_()_`
320
+ 3. `ده_یوْخلو_"_the_ism`
321
 
322
  **Context Size 4:**
323
 
324
+ 1. `نده_یئرلشیر._بۇ_شهر`
325
+ 2. `لار_اینسانی._۲۴_آقو`
326
+ 3. `ینده_چیخماق_شکیلات)`
327
 
328
 
329
  ### Key Findings
330
 
331
  - **Best Predictability:** Context-4 (word) with 96.6% predictability
332
  - **Branching Factor:** Decreases with context size (more deterministic)
333
+ - **Memory Trade-off:** Larger contexts require more storage (955,119 contexts)
334
  - **Recommendation:** Context-3 or Context-4 for text generation
335
 
336
  ---
 
346
 
347
  | Metric | Value |
348
  |--------|-------|
349
+ | Vocabulary Size | 271,726 |
350
+ | Total Tokens | 12,485,100 |
351
+ | Mean Frequency | 45.95 |
352
  | Median Frequency | 3 |
353
+ | Frequency Std Dev | 1144.86 |
354
 
355
  ### Most Common Words
356
 
357
  | Rank | Word | Frequency |
358
  |------|------|-----------|
359
+ | 1 | و | 284,866 |
360
+ | 2 | بیر | 169,436 |
361
+ | 3 | اینگیلیسجه | 149,744 |
362
+ | 4 | قایناقلار | 142,037 |
363
+ | 5 | the | 114,223 |
364
+ | 6 | تاریخینده | 92,091 |
365
+ | 7 | قایناق‌لار | 90,964 |
366
+ | 8 | ایلده | 83,776 |
367
+ | 9 | شهرلری | 81,908 |
368
+ | 10 | طرفیندن | 80,193 |
369
 
370
  ### Least Common Words (from vocabulary)
371
 
372
  | Rank | Word | Frequency |
373
  |------|------|-----------|
374
+ | 1 | ائششکین | 2 |
375
+ | 2 | لابی‌سی | 2 |
376
+ | 3 | آذری‌ها | 2 |
377
+ | 4 | داشناکلارلا | 2 |
378
+ | 5 | قۇلان | 2 |
379
+ | 6 | آسینۇس | 2 |
380
+ | 7 | ائششه‌یینین | 2 |
381
+ | 8 | تاپؽلمیشدیر | 2 |
382
+ | 9 | kulan | 2 |
383
+ | 10 | کسا | 2 |
384
 
385
  ### Zipf's Law Analysis
386
 
387
  | Metric | Value |
388
  |--------|-------|
389
+ | Zipf Coefficient | 1.1608 |
390
+ | R² (Goodness of Fit) | 0.995522 |
391
  | Adherence Quality | **excellent** |
392
 
393
  ### Coverage Analysis
 
403
 
404
  - **Zipf Compliance:** R²=0.9955 indicates excellent adherence to Zipf's law
405
  - **High Frequency Dominance:** Top 100 words cover 34.4% of corpus
406
+ - **Long Tail:** 261,726 words needed for remaining 15.4% coverage
407
 
408
  ---
409
  ## 5. Word Embeddings Evaluation
 
419
 
420
  ### 5.1 Cross-Lingual Alignment
421
 
422
+ ![Alignment Quality](visualizations/embedding_alignment_quality.png)
423
+
424
+ ![Multilingual t-SNE](visualizations/embedding_tsne_multilingual.png)
425
 
426
 
427
  ### 5.2 Model Comparison
428
 
429
  | Model | Dimension | Isotropy | Semantic Density | Alignment R@1 | Alignment R@10 |
430
  |-------|-----------|----------|------------------|---------------|----------------|
431
+ | **mono_32d** | 32 | 0.8266 🏆 | 0.3562 | N/A | N/A |
432
+ | **mono_64d** | 64 | 0.7978 | 0.2932 | N/A | N/A |
433
+ | **mono_128d** | 128 | 0.7560 | 0.2495 | N/A | N/A |
434
+ | **aligned_32d** | 32 | 0.8266 | 0.3594 | 0.0580 | 0.2760 |
435
+ | **aligned_64d** | 64 | 0.7978 | 0.3041 | 0.1220 | 0.4360 |
436
+ | **aligned_128d** | 128 | 0.7560 | 0.2442 | 0.2380 | 0.6200 |
437
 
438
  ### Key Findings
439
 
440
+ - **Best Isotropy:** mono_32d with 0.8266 (more uniform distribution)
441
+ - **Semantic Density:** Average pairwise similarity of 0.3011. Lower values indicate better semantic separation.
442
+ - **Alignment Quality:** Aligned models achieve up to 23.8% R@1 in cross-lingual retrieval.
443
  - **Recommendation:** 128d aligned for best cross-lingual performance
444
 
445
  ---
446
  ## 6. Morphological Analysis (Experimental)
447
 
 
 
448
  This section presents an automated morphological analysis derived from the statistical divergence between word-level and subword-level models. By analyzing where subword predictability spikes and where word-level coverage fails, we can infer linguistic structures without supervised data.
449
 
450
  ### 6.1 Productivity & Complexity
451
 
452
  | Metric | Value | Interpretation | Recommendation |
453
  |--------|-------|----------------|----------------|
454
+ | Productivity Index | **5.000** | High morphological productivity | Reliable analysis |
455
+ | Idiomaticity Gap | **0.190** | Low formulaic content | - |
456
 
457
  ### 6.2 Affix Inventory (Productive Units)
458
 
 
465
  #### Productive Suffixes
466
  | Suffix | Examples |
467
  |--------|----------|
468
+ | `-ین` | کومیته‌سی‌‌نین, قورانین, پاقلئنین |
469
+ | `-ان` | قافقازدان, آتاسین‌دان, تیتانلاردان |
470
 
471
  ### 6.3 Bound Stems (Lexical Roots)
472
 
 
474
 
475
  | Stem | Cohesion | Substitutability | Examples |
476
  |------|----------|------------------|----------|
477
+ | `رلری` | 2.05x | 205 contexts | یرلری, ارلری, خطرلری |
478
+ | `اقلا` | 1.90x | 131 contexts | ناقلا, اقلایس, داقلاس |
479
+ | `یبدی` | 2.33x | 31 contexts | ییبدیر, گلیبدی, آلیبدی |
480
+ | `قلار` | 2.01x | 54 contexts | حقلاری, لیقلار, حاقلار |
481
+ | `اریخ` | 2.11x | 41 contexts | تاریخ, ‌تاریخ, تواریخ |
482
+ | `ولوب` | 1.85x | 60 contexts | اولوب, قولوب, بولوب |
483
+ | `تیند` | 1.73x | 73 contexts | تینده, تیندل, تیندال |
484
+ | `یناق` | 2.07x | 27 contexts | ایناق, قیناق, سیناق |
485
+ | `ئرلش` | 2.13x | 24 contexts | یئرلشن, يئرلشن, یئرلشه |
486
+ | `ریخی` | 2.00x | 22 contexts | مریخی, ریخین, مریخین |
487
+ | `قاین` | 2.31x | 14 contexts | قاینا, قاینی, قاینز |
488
+ | `هرلر` | 2.14x | 17 contexts | شهرلر, شهرلري, شهرلری |
489
 
490
  ### 6.4 Affix Compatibility (Co-occurrence)
491
 
 
500
 
501
  | Word | Suggested Split | Confidence | Stem |
502
  |------|-----------------|------------|------|
503
+ | دۆکانلارینین | **`دۆکانلار-ین-ین`** | 6.0 | `دۆکانلار` |
504
+ | سیلاحینین | **`سیلاح-ین-ین`** | 6.0 | `سیلاح` |
505
+ | باشچی‌لارینین | **`باشچی‌لار-ین-ین`** | 6.0 | `باشچی‌لار` |
506
+ | دوخالارین | **`دوخالار-ین`** | 4.5 | `دوخالار` |
507
+ | آمارلارین | **`آمارلار-ین`** | 4.5 | `آمارلار` |
508
+ | تاریخچیلرین | **`تاریخچیلر-ین`** | 4.5 | `تاریخچیلر` |
509
+ | اؤدوللرین | **`اؤدوللر-ین`** | 4.5 | `اؤدوللر` |
510
+ | شکیلچیلرین | **`شکیلچیلر-ین`** | 4.5 | `شکیلچیلر` |
511
+ | کوْمونیستلرین | **`کوْمونیستلر-ین`** | 4.5 | `کوْمونیستلر` |
512
+ | بیوفیزیکین | **`بیوفیزیک-ین`** | 4.5 | `بیوفیزیک` |
513
+ | تاپینتیلارین | **`تاپینتیلار-ین`** | 4.5 | `تاپینتیلار` |
514
+ | میکروبلارین | **`میکروبلار-ین`** | 4.5 | `میکروبلار` |
515
+ | تیکیلینین | **`تیکیل-ین-ین`** | 3.0 | `تیکیل` |
516
+ | نفتالینین | **`نفتال-ین-ین`** | 3.0 | `نفتال` |
517
+ | والنتاینین | **`والنتا-ین-ین`** | 3.0 | `والنتا` |
518
 
519
  ### 6.6 Linguistic Interpretation
520
 
521
  > **Automated Insight:**
522
+ The language South Azerbaijani shows high morphological productivity. The subword models are significantly more efficient than word models, suggesting a rich system of affixation or compounding.
523
 
524
  ---
525
  ## 7. Summary & Recommendations
 
746
  ---
747
  *Generated by Wikilangs Models Pipeline*
748
 
749
+ *Report Date: 2026-01-03 19:16:27*
models/embeddings/aligned/azb_128d.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f7fba61484a16c9c898701068d656d881bc6c156a0b6babe3f7ec4078acd6262
3
+ size 1145411750
models/embeddings/aligned/azb_128d.meta.json ADDED
@@ -0,0 +1 @@
 
 
1
+ {"lang": "azb", "dim": 128, "max_seq_len": 512, "is_aligned": true}
models/embeddings/aligned/azb_128d.projection.npy ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:ed8f8452398a94ff786227922c523dbf4ab2a018a4f06529e3d278ca88488a66
3
+ size 65664
models/embeddings/aligned/azb_128d_metadata.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "language": "azb",
3
+ "dimension": 128,
4
+ "version": "aligned",
5
+ "hub_language": "en",
6
+ "seed_vocab_size": 42618,
7
+ "vocab_size": 116236
8
+ }
models/embeddings/aligned/azb_32d.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0d14722820d067623892cd38f82df2c95c06554ed9e30a57fb7db42aaf72eacf
3
+ size 288142502
models/embeddings/aligned/azb_32d.meta.json ADDED
@@ -0,0 +1 @@
 
 
1
+ {"lang": "azb", "dim": 32, "max_seq_len": 512, "is_aligned": true}
models/embeddings/aligned/azb_32d.projection.npy ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:2aaccc28d180db854817233ae4f3438461720ca663a921e9e831c2b035117ab0
3
+ size 4224
models/embeddings/aligned/azb_32d_metadata.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "language": "azb",
3
+ "dimension": 32,
4
+ "version": "aligned",
5
+ "hub_language": "en",
6
+ "seed_vocab_size": 42618,
7
+ "vocab_size": 116236
8
+ }
models/embeddings/aligned/azb_64d.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:aaa261e0f81b8a3bbef90655095296e78dfa1f341ee603c2a1da60de817fcaa0
3
+ size 573898918
models/embeddings/aligned/azb_64d.meta.json ADDED
@@ -0,0 +1 @@
 
 
1
+ {"lang": "azb", "dim": 64, "max_seq_len": 512, "is_aligned": true}
models/embeddings/aligned/azb_64d.projection.npy ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f195b252202d0f5b090e9a0b4f64fa1d65c1382111c9053c1b1d4b56dc42b678
3
+ size 16512
models/embeddings/aligned/azb_64d_metadata.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "language": "azb",
3
+ "dimension": 64,
4
+ "version": "aligned",
5
+ "hub_language": "en",
6
+ "seed_vocab_size": 42618,
7
+ "vocab_size": 116236
8
+ }
models/embeddings/monolingual/azb_128d.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:0affe475b2c95d7dbb76d561e1c19235d6d09956c11cb77486d2ed42c5bc91f8
3
- size 1145287401
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f7fba61484a16c9c898701068d656d881bc6c156a0b6babe3f7ec4078acd6262
3
+ size 1145411750
models/embeddings/monolingual/azb_128d_metadata.json CHANGED
@@ -11,5 +11,5 @@
11
  "encoding_method": "rope",
12
  "dim": 128
13
  },
14
- "vocab_size": 116118
15
  }
 
11
  "encoding_method": "rope",
12
  "dim": 128
13
  },
14
+ "vocab_size": 116236
15
  }
models/embeddings/monolingual/azb_32d.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:dd0d8e4ac83c586e8f75145c0ce099bef44ff8d39e955040bc9454b60e32022c
3
- size 288108777
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0d14722820d067623892cd38f82df2c95c06554ed9e30a57fb7db42aaf72eacf
3
+ size 288142502
models/embeddings/monolingual/azb_32d_metadata.json CHANGED
@@ -11,5 +11,5 @@
11
  "encoding_method": "rope",
12
  "dim": 32
13
  },
14
- "vocab_size": 116118
15
  }
 
11
  "encoding_method": "rope",
12
  "dim": 32
13
  },
14
+ "vocab_size": 116236
15
  }
models/embeddings/monolingual/azb_64d.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:2aae88ec4bdf46e7654ecacada31d2b3be0690719379b657e44df7793b45fa65
3
- size 573834985
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:aaa261e0f81b8a3bbef90655095296e78dfa1f341ee603c2a1da60de817fcaa0
3
+ size 573898918
models/embeddings/monolingual/azb_64d_metadata.json CHANGED
@@ -11,5 +11,5 @@
11
  "encoding_method": "rope",
12
  "dim": 64
13
  },
14
- "vocab_size": 116118
15
  }
 
11
  "encoding_method": "rope",
12
  "dim": 64
13
  },
14
+ "vocab_size": 116236
15
  }
models/subword_markov/azb_markov_ctx1_subword.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:4ff3da37abf00dd52bdcb28478a692c4366754cc1a111aa42559670cd7ea3aee
3
- size 247087
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:eccb1064c2ad7a13ca02b888e94bda620237fce691be9e4556e376bd45f7cc2f
3
+ size 247394
models/subword_markov/azb_markov_ctx1_subword_metadata.json CHANGED
@@ -2,6 +2,6 @@
2
  "context_size": 1,
3
  "variant": "subword",
4
  "language": "azb",
5
- "unique_contexts": 3409,
6
- "total_transitions": 91613484
7
  }
 
2
  "context_size": 1,
3
  "variant": "subword",
4
  "language": "azb",
5
+ "unique_contexts": 3419,
6
+ "total_transitions": 91671427
7
  }
models/subword_markov/azb_markov_ctx2_subword.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:1090e7d0037ce29d3cddcfe27f87428fcd5c872805dcf5e3d4202b9f83929b66
3
- size 1650829
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:346170fde15fa90a7550284c24d2653e065bf167f92801f29bd1d9322b691483
3
+ size 1653805
models/subword_markov/azb_markov_ctx2_subword_metadata.json CHANGED
@@ -2,6 +2,6 @@
2
  "context_size": 2,
3
  "variant": "subword",
4
  "language": "azb",
5
- "unique_contexts": 30905,
6
- "total_transitions": 91370829
7
  }
 
2
  "context_size": 2,
3
  "variant": "subword",
4
  "language": "azb",
5
+ "unique_contexts": 30973,
6
+ "total_transitions": 91428663
7
  }
models/subword_markov/azb_markov_ctx3_subword.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:06a5083f143c1f0688e95d617ee8d409f5c78a44f6ea6c79e014253dcf249ac5
3
- size 7956042
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d8457414c0b3aa27c3e49b63c6cb0ecb67ea5717d3f6f4e75ecea597e7945940
3
+ size 7939655
models/subword_markov/azb_markov_ctx3_subword_metadata.json CHANGED
@@ -2,6 +2,6 @@
2
  "context_size": 3,
3
  "variant": "subword",
4
  "language": "azb",
5
- "unique_contexts": 203056,
6
- "total_transitions": 91128174
7
  }
 
2
  "context_size": 3,
3
  "variant": "subword",
4
  "language": "azb",
5
+ "unique_contexts": 203342,
6
+ "total_transitions": 91185899
7
  }
models/subword_markov/azb_markov_ctx4_subword.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:d4bd1bdcfb24b934a84145355781bb3e8cf414b875f467fc28d048b5d64ec5d1
3
- size 26328560
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f3db0937b189490c3bea7ef1d828b7bb71fa24387c10ce577715fc96661291b3
3
+ size 26343131
models/subword_markov/azb_markov_ctx4_subword_metadata.json CHANGED
@@ -2,6 +2,6 @@
2
  "context_size": 4,
3
  "variant": "subword",
4
  "language": "azb",
5
- "unique_contexts": 953883,
6
- "total_transitions": 90885519
7
  }
 
2
  "context_size": 4,
3
  "variant": "subword",
4
  "language": "azb",
5
+ "unique_contexts": 955119,
6
+ "total_transitions": 90943135
7
  }
models/subword_ngram/azb_2gram_subword.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:383d8448d14aee343af41336d2c34807c417414896fb0905958afee3cec1c929
3
- size 182774
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:aeaf42a3589a4a01cf180d07ea597bcf451efbb96716266713a2d4eedd886a51
3
+ size 182331
models/subword_ngram/azb_2gram_subword_metadata.json CHANGED
@@ -2,6 +2,6 @@
2
  "n": 2,
3
  "variant": "subword",
4
  "language": "azb",
5
- "unique_ngrams": 12648,
6
- "total_ngrams": 91613484
7
  }
 
2
  "n": 2,
3
  "variant": "subword",
4
  "language": "azb",
5
+ "unique_ngrams": 12667,
6
+ "total_ngrams": 91671427
7
  }
models/subword_ngram/azb_3gram_subword.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:ed1d402ce0eac47e37053808b7981cf3eb00b76c5e2e5e887890b036ff01d869
3
- size 1377099
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b8d2e2c32fab5c45a04f06e3e4262007ee102156adffcfb089cb714df48782bc
3
+ size 1372485
models/subword_ngram/azb_3gram_subword_metadata.json CHANGED
@@ -2,6 +2,6 @@
2
  "n": 3,
3
  "variant": "subword",
4
  "language": "azb",
5
- "unique_ngrams": 106644,
6
- "total_ngrams": 91370829
7
  }
 
2
  "n": 3,
3
  "variant": "subword",
4
  "language": "azb",
5
+ "unique_ngrams": 106797,
6
+ "total_ngrams": 91428663
7
  }
models/subword_ngram/azb_4gram_subword.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:cde924d7fc46a3c6a14d25e38135fbf37a14e774606b67187d527dd381b1d75f
3
- size 7368829
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cdf95cef8857c634a6c38bef044511145760d78c4084a78b5ce524a351f47629
3
+ size 7367143
models/subword_ngram/azb_4gram_subword_metadata.json CHANGED
@@ -2,6 +2,6 @@
2
  "n": 4,
3
  "variant": "subword",
4
  "language": "azb",
5
- "unique_ngrams": 581225,
6
- "total_ngrams": 91128174
7
  }
 
2
  "n": 4,
3
  "variant": "subword",
4
  "language": "azb",
5
+ "unique_ngrams": 582040,
6
+ "total_ngrams": 91185899
7
  }
models/subword_ngram/azb_5gram_subword.parquet ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1e6a651286a7fc63db17722b54dcc513de38bb32954df7ef2c6e7ba41696a94f
3
+ size 21420410
models/subword_ngram/azb_5gram_subword_metadata.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "n": 5,
3
+ "variant": "subword",
4
+ "language": "azb",
5
+ "unique_ngrams": 1605166,
6
+ "total_ngrams": 90943135
7
+ }
models/tokenizer/azb_tokenizer_16k.model CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:c4f3786bae820ff2d6cc627dbdc96f1ede4586a6afa95391543c078559a7c125
3
- size 527370
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:78fe8e425ee2d14c8cbc086462c0a6fb0c8672422d6baaa9c53a083fb41230fe
3
+ size 527336
models/tokenizer/azb_tokenizer_16k.vocab CHANGED
The diff for this file is too large to render. See raw diff
 
models/tokenizer/azb_tokenizer_32k.model CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:d5380be73c3e18000f3f24bd0d0309c1b6d15259c73623f50c42cea3c6f8992d
3
- size 820944
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1dcb5fbdf9687c7a29a2559207cbe48f8a1890ee06cd1e13b5a72ce3ae1a1d37
3
+ size 821063
models/tokenizer/azb_tokenizer_32k.vocab CHANGED
The diff for this file is too large to render. See raw diff
 
models/tokenizer/azb_tokenizer_64k.model CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:efb9e4835aafb1f0f10715a303c2ac20f1f169ed4ffc46f49d685eea42a8bfae
3
- size 1430567
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:25e15500dc92481d440402b6c384029ea7e58fe0ae397c87bf65ab29894d3d39
3
+ size 1430884
models/tokenizer/azb_tokenizer_64k.vocab CHANGED
The diff for this file is too large to render. See raw diff
 
models/tokenizer/azb_tokenizer_8k.model CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:e6b1776330fc0caaa7cc96df48505e83e46f3a00daa53e66e6a94354397d3dd8
3
- size 384993
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1ffb727e6910cf827e7bb5d25d97496c5148609e25777d8d628f6c18555b2a56
3
+ size 384991
models/tokenizer/azb_tokenizer_8k.vocab CHANGED
The diff for this file is too large to render. See raw diff
 
models/vocabulary/azb_vocabulary.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:1346fa231de1649149828cb0cae257f644b1914797c84a5a8c4b56c62e716253
3
- size 4348211
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:86bd845ad36e21a068c417e3b757b2c45c205900a8bc93f376602b186ce1b75a
3
+ size 4356999
models/vocabulary/azb_vocabulary_metadata.json CHANGED
@@ -1,17 +1,17 @@
1
  {
2
  "language": "azb",
3
- "vocabulary_size": 271198,
4
  "variant": "full",
5
  "statistics": {
6
- "type_token_ratio": 0.05623983023140009,
7
  "coverage": {
8
- "top_100": 0.33209927062556827,
9
- "top_1000": 0.6250560987377987,
10
- "top_5000": 0.7676335196346162,
11
- "top_10000": 0.8163255618590586
12
  },
13
- "hapax_count": 456252,
14
- "hapax_ratio": 0.627193621554746,
15
- "total_documents": 242655
16
  }
17
  }
 
1
  {
2
  "language": "azb",
3
+ "vocabulary_size": 271726,
4
  "variant": "full",
5
  "statistics": {
6
+ "type_token_ratio": 0.05635358313507553,
7
  "coverage": {
8
+ "top_100": 0.33197342078310443,
9
+ "top_1000": 0.6248757605033368,
10
+ "top_5000": 0.7674031101905439,
11
+ "top_10000": 0.816088303994887
12
  },
13
+ "hapax_count": 457644,
14
+ "hapax_ratio": 0.6274510879251958,
15
+ "total_documents": 242764
16
  }
17
  }
models/word_markov/azb_markov_ctx1_word.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:816eaec35f734257259dcbb9d574a8c019635474f0de8b0daca5e593a77ac78b
3
- size 42654567
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6238def4c37c6efca33c3f0dec89e8e15aea62181715f132a0c8f831fc399f55
3
+ size 42535190
models/word_markov/azb_markov_ctx1_word_metadata.json CHANGED
@@ -2,6 +2,6 @@
2
  "context_size": 1,
3
  "variant": "word",
4
  "language": "azb",
5
- "unique_contexts": 726930,
6
- "total_transitions": 12692128
7
  }
 
2
  "context_size": 1,
3
  "variant": "word",
4
  "language": "azb",
5
+ "unique_contexts": 728851,
6
+ "total_transitions": 12699980
7
  }
models/word_markov/azb_markov_ctx2_word.parquet CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:46d9babbdaaaad5f5dc9ac4a05883d1447bd376822b6b3dc01d9bfa81167154f
3
- size 101955475
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:dd5d011f46c908036799cf288d4894cdb782c673ee08496e7d2194b9a1b8bb5e
3
+ size 102046765
models/word_markov/azb_markov_ctx2_word_metadata.json CHANGED
@@ -2,6 +2,6 @@
2
  "context_size": 2,
3
  "variant": "word",
4
  "language": "azb",
5
- "unique_contexts": 3693091,
6
- "total_transitions": 12449473
7
  }
 
2
  "context_size": 2,
3
  "variant": "word",
4
  "language": "azb",
5
+ "unique_contexts": 3698118,
6
+ "total_transitions": 12457216
7
  }