Spaces:
Paused
Paused
Update finetunning.py
Browse files- finetunning.py +5 -6
finetunning.py
CHANGED
|
@@ -21,19 +21,18 @@ os.makedirs('./fine_tuned_model', exist_ok=True)
|
|
| 21 |
os.chmod('./fine_tuned_model', 0o777)
|
| 22 |
|
| 23 |
# Завантаження моделі та токенізатора
|
| 24 |
-
model_name = "
|
| 25 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
| 26 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
| 27 |
|
| 28 |
# Завантаження датасета (приклад з використанням датасета wiki_text)
|
| 29 |
# dataset = load_dataset("wikitext", "wikitext-2-raw-v1", split="train")
|
|
|
|
| 30 |
|
| 31 |
# Завантаження данних з локального тестового файлу
|
| 32 |
-
with open("ilya_klimov_data.txt", "r", encoding="utf-8") as file:
|
| 33 |
-
|
| 34 |
-
|
| 35 |
-
# Створення датасету
|
| 36 |
-
dataset = Dataset.from_dict({"text": [text_data]})
|
| 37 |
|
| 38 |
# Функція для токенізації данних
|
| 39 |
def tokenize_function(examples):
|
|
|
|
| 21 |
os.chmod('./fine_tuned_model', 0o777)
|
| 22 |
|
| 23 |
# Завантаження моделі та токенізатора
|
| 24 |
+
model_name = "meta-llama/Meta-Llama-3.1-8B"
|
| 25 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
| 26 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
| 27 |
|
| 28 |
# Завантаження датасета (приклад з використанням датасета wiki_text)
|
| 29 |
# dataset = load_dataset("wikitext", "wikitext-2-raw-v1", split="train")
|
| 30 |
+
dataset = load_dataset("Aniemore/resd")
|
| 31 |
|
| 32 |
# Завантаження данних з локального тестового файлу
|
| 33 |
+
# with open("ilya_klimov_data.txt", "r", encoding="utf-8") as file:
|
| 34 |
+
# text_data = file.read().strip()
|
| 35 |
+
# dataset = Dataset.from_dict({"text": [text_data]})
|
|
|
|
|
|
|
| 36 |
|
| 37 |
# Функція для токенізації данних
|
| 38 |
def tokenize_function(examples):
|