kgrabko commited on
Commit
5484a60
·
verified ·
1 Parent(s): e630740

Initial upload of JiRackTernary 70B converted weights

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ jirack_dialogs.txt filter=lfs diff=lfs merge=lfs -text
jirack_dialogs.txt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:fa5317db085b69f652d3bed0c6ac048e905e915de4b88abf38500c7a1722c99f
3
+ size 1766038646
tokenize_gutengerg_dataset.py ADDED
@@ -0,0 +1,70 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import os
2
+ import numpy as np
3
+ from transformers import AutoTokenizer
4
+ from tqdm import tqdm
5
+ import array
6
+
7
+ # --- НАСТРОЙКИ ---
8
+ INPUT_FILE = 'jirack_dialogs.txt'
9
+ # Возвращаем старый путь к токенизатору
10
+ TOKENIZER_PATH = 'meta-llama/Meta-Llama-3-70B'
11
+ OUTPUT_DIR = 'tokenized_base_dialogs_en_chunks'
12
+
13
+ CHUNK_SIZE_TOKENS = 250_000_000 # ~1GB на один .bin файл
14
+ # -----------------
15
+
16
+ os.makedirs(OUTPUT_DIR, exist_ok=True)
17
+
18
+ def save_chunk(token_array, idx):
19
+ """Сохраняет токены в бинарный файл uint32."""
20
+ filename = os.path.join(OUTPUT_DIR, f"chunk_{idx:03d}.bin")
21
+ print(f"\n💾 Запись чанка {idx} (токенов: {len(token_array)})...")
22
+ # Преобразование в numpy uint32 для записи
23
+ arr = np.array(token_array, dtype=np.uint32)
24
+ arr.tofile(filename)
25
+
26
+ def tokenize_to_chunks():
27
+ print(f"🧬 Загрузка токенизатора {TOKENIZER_PATH}...")
28
+ # Если токенизатор уже скачан в кэш, он возьмет его оттуда.
29
+ # Если нет — попробует скачать (нужен логин в hf или наличие в кэше).
30
+ tokenizer = AutoTokenizer.from_pretrained(TOKENIZER_PATH, use_fast=True)
31
+
32
+ if tokenizer.pad_token is None:
33
+ tokenizer.pad_token = tokenizer.eos_token
34
+
35
+ eos_id = tokenizer.eos_token_id
36
+ chunk_idx = 0
37
+
38
+ # Использование array.array('I') критично для экономии 128GB RAM
39
+ current_chunk_tokens = array.array('I')
40
+
41
+ print(f"🚀 Чтение {INPUT_FILE}...")
42
+
43
+ # buffering=128MB ускоряет чтение с диска
44
+ with open(INPUT_FILE, 'r', encoding='utf-8', errors='ignore', buffering=128*1024*1024) as f:
45
+ for line in tqdm(f, desc="Токенизация"):
46
+ line = line.strip()
47
+ if not line:
48
+ continue
49
+
50
+ # Токенизация
51
+ ids = tokenizer.encode(line, add_special_tokens=False)
52
+
53
+ # Добавляем в буфер
54
+ current_chunk_tokens.extend(ids)
55
+ current_chunk_tokens.append(eos_id)
56
+
57
+ # Проверка границы чанка
58
+ if len(current_chunk_tokens) >= CHUNK_SIZE_TOKENS:
59
+ save_chunk(current_chunk_tokens, chunk_idx)
60
+ chunk_idx += 1
61
+ current_chunk_tokens = array.array('I') # Обнуляем буфер
62
+
63
+ # Сохранение финального остатка
64
+ if len(current_chunk_tokens) > 0:
65
+ save_chunk(current_chunk_tokens, chunk_idx)
66
+
67
+ print(f"🏁 Завершено. Всего чанков: {chunk_idx + 1}")
68
+
69
+ if __name__ == "__main__":
70
+ tokenize_to_chunks()
tokenized_base_dialogs_en_chunks/chunk_000.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0417b6250c8e685318f9721dddd28abbf95813aa351bd13368d302b97e99108b
3
+ size 1000000676
tokenized_base_dialogs_en_chunks/chunk_001.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:07c480a3bdf055674f27d798181603e871c2683896a809a23b687aba5b6e967e
3
+ size 496815348