B:\8B\!models--SicariusSicariiStuff--Llama-3.1-Nemotron-8B-UltraLong-1M-Instruct_Abliterated>PMPF4_finetune_7B_3060ti_v12B_llama.py --- POOR MAN'S PORTABLE FINETUNER v12 --- Loading Tokenizer... Loading dataset: B:\8B\!models--SicariusSicariiStuff--Llama-3.1-Nemotron-8B-UltraLong-1M-Instruct_Abliterated\dataset_cache\unified_dataset.parquet Formatting dataset for Llama 3... Map: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 77/77 [00:00<00:00, 7695.05 examples/s] Training on 77 distinct Q&A pairs. Loading Model with VRAM Augmentation (Limit: 4GiB)... Loading Model with Manual CPU Offload (VRAM Cap: 4GiB)... `torch_dtype` is deprecated! Use `dtype` instead! Loading checkpoint shards: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7/7 [00:07<00:00, 1.01s/it] Some parameters are on the meta device because they were offloaded to the cpu. Applying surgical float32 casts to Norm layers... Applying formatting function to train dataset: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 77/77 [00:00<00:00, 7665.83 examples/s] Adding EOS to train dataset: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 77/77 [00:00