mueggi commited on
Commit
b86a329
·
verified ·
1 Parent(s): 02720da

SFT checkpoint-1000 (loss 0.9141511917114258)

Browse files
Files changed (6) hide show
  1. adapter_model.safetensors +1 -1
  2. optimizer.pt +1 -1
  3. rng_state.pth +1 -1
  4. scaler.pt +1 -1
  5. scheduler.pt +1 -1
  6. trainer_state.json +353 -3
adapter_model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:21d9afb9e7e2619f3b54a034b347c2fbfb3c512adc6a80772ba4c20793da3a39
3
  size 7745357608
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4f79bad1c4caf855cfb992cfe2a1964bfecea7c56848e55972d1d4767d20909e
3
  size 7745357608
optimizer.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:cf2cb5607b6cb307dd800c3c7bd14569fe7c8dd98a0329a14f4c036c1a8bebb6
3
  size 286549651
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:10fb3705983a068f4b12a4583085856b26c69a98fdaf2972d702faa19dd8d8e3
3
  size 286549651
rng_state.pth CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:79ae359543e40fa724a3e59f9014822205ca9e90df7828fd29390284ddf163e2
3
  size 14645
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c575fbf88d39fc197b4f855127f24fc8a1db2f79cc8dc20a4a3ed599f90b5184
3
  size 14645
scaler.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:f77569c2e850b04af982cc8c1389f1430851448915c593b69e5da36ce05b71d7
3
  size 1383
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:14ae2a2128444abab378aa06c09a61a84665f758fcc19fc46f5789b0bc1b5665
3
  size 1383
scheduler.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:f65b5f36e400f8080ca12521a9996f69ba7fa277678768d7f7ea215556d3b021
3
  size 1465
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5fcea74c4b86879b12c0b1f78295205d7b8d0c902ab12a26dc95cf3614641b15
3
  size 1465
trainer_state.json CHANGED
@@ -2,9 +2,9 @@
2
  "best_global_step": null,
3
  "best_metric": null,
4
  "best_model_checkpoint": null,
5
- "epoch": 0.26666666666666666,
6
  "eval_steps": 500,
7
- "global_step": 500,
8
  "is_hyper_param_search": false,
9
  "is_local_process_zero": true,
10
  "is_world_process_zero": true,
@@ -358,6 +358,356 @@
358
  "learning_rate": 0.00018852519308569328,
359
  "loss": 0.9512178421020507,
360
  "step": 500
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
361
  }
362
  ],
363
  "logging_steps": 10,
@@ -377,7 +727,7 @@
377
  "attributes": {}
378
  }
379
  },
380
- "total_flos": 4.519568208089088e+16,
381
  "train_batch_size": 1,
382
  "trial_name": null,
383
  "trial_params": null
 
2
  "best_global_step": null,
3
  "best_metric": null,
4
  "best_model_checkpoint": null,
5
+ "epoch": 0.5333333333333333,
6
  "eval_steps": 500,
7
+ "global_step": 1000,
8
  "is_hyper_param_search": false,
9
  "is_local_process_zero": true,
10
  "is_world_process_zero": true,
 
358
  "learning_rate": 0.00018852519308569328,
359
  "loss": 0.9512178421020507,
360
  "step": 500
361
+ },
362
+ {
363
+ "epoch": 0.272,
364
+ "grad_norm": 0.158578023314476,
365
+ "learning_rate": 0.00018815741081279884,
366
+ "loss": 0.9607432365417481,
367
+ "step": 510
368
+ },
369
+ {
370
+ "epoch": 0.2773333333333333,
371
+ "grad_norm": 0.1450786292552948,
372
+ "learning_rate": 0.0001877896285399044,
373
+ "loss": 0.9401381492614747,
374
+ "step": 520
375
+ },
376
+ {
377
+ "epoch": 0.2826666666666667,
378
+ "grad_norm": 0.1339694708585739,
379
+ "learning_rate": 0.00018742184626700993,
380
+ "loss": 1.0503832817077636,
381
+ "step": 530
382
+ },
383
+ {
384
+ "epoch": 0.288,
385
+ "grad_norm": 0.11654400080442429,
386
+ "learning_rate": 0.00018705406399411548,
387
+ "loss": 0.9126350402832031,
388
+ "step": 540
389
+ },
390
+ {
391
+ "epoch": 0.29333333333333333,
392
+ "grad_norm": 0.13373474776744843,
393
+ "learning_rate": 0.00018668628172122104,
394
+ "loss": 0.9998178482055664,
395
+ "step": 550
396
+ },
397
+ {
398
+ "epoch": 0.2986666666666667,
399
+ "grad_norm": 0.1520962119102478,
400
+ "learning_rate": 0.0001863184994483266,
401
+ "loss": 0.9018580436706543,
402
+ "step": 560
403
+ },
404
+ {
405
+ "epoch": 0.304,
406
+ "grad_norm": 0.1495676338672638,
407
+ "learning_rate": 0.00018595071717543215,
408
+ "loss": 0.9203540802001953,
409
+ "step": 570
410
+ },
411
+ {
412
+ "epoch": 0.30933333333333335,
413
+ "grad_norm": 0.14405539631843567,
414
+ "learning_rate": 0.0001855829349025377,
415
+ "loss": 0.9613846778869629,
416
+ "step": 580
417
+ },
418
+ {
419
+ "epoch": 0.31466666666666665,
420
+ "grad_norm": 0.14544403553009033,
421
+ "learning_rate": 0.00018521515262964327,
422
+ "loss": 0.9390192031860352,
423
+ "step": 590
424
+ },
425
+ {
426
+ "epoch": 0.32,
427
+ "grad_norm": 0.14720585942268372,
428
+ "learning_rate": 0.00018484737035674882,
429
+ "loss": 0.9530813217163085,
430
+ "step": 600
431
+ },
432
+ {
433
+ "epoch": 0.3253333333333333,
434
+ "grad_norm": 0.14282116293907166,
435
+ "learning_rate": 0.00018447958808385438,
436
+ "loss": 0.9839869499206543,
437
+ "step": 610
438
+ },
439
+ {
440
+ "epoch": 0.33066666666666666,
441
+ "grad_norm": 0.10869397968053818,
442
+ "learning_rate": 0.00018411180581095994,
443
+ "loss": 0.9609838485717773,
444
+ "step": 620
445
+ },
446
+ {
447
+ "epoch": 0.336,
448
+ "grad_norm": 0.1263863891363144,
449
+ "learning_rate": 0.00018374402353806547,
450
+ "loss": 0.983967399597168,
451
+ "step": 630
452
+ },
453
+ {
454
+ "epoch": 0.3413333333333333,
455
+ "grad_norm": 0.12446080893278122,
456
+ "learning_rate": 0.00018337624126517102,
457
+ "loss": 0.9304941177368165,
458
+ "step": 640
459
+ },
460
+ {
461
+ "epoch": 0.3466666666666667,
462
+ "grad_norm": 0.12666022777557373,
463
+ "learning_rate": 0.00018300845899227658,
464
+ "loss": 0.9255437850952148,
465
+ "step": 650
466
+ },
467
+ {
468
+ "epoch": 0.352,
469
+ "grad_norm": 0.12558284401893616,
470
+ "learning_rate": 0.00018264067671938214,
471
+ "loss": 0.9449084281921387,
472
+ "step": 660
473
+ },
474
+ {
475
+ "epoch": 0.35733333333333334,
476
+ "grad_norm": 0.12416686117649078,
477
+ "learning_rate": 0.0001822728944464877,
478
+ "loss": 0.8624231338500976,
479
+ "step": 670
480
+ },
481
+ {
482
+ "epoch": 0.3626666666666667,
483
+ "grad_norm": 0.15433147549629211,
484
+ "learning_rate": 0.00018190511217359325,
485
+ "loss": 0.908421802520752,
486
+ "step": 680
487
+ },
488
+ {
489
+ "epoch": 0.368,
490
+ "grad_norm": 0.1286514699459076,
491
+ "learning_rate": 0.0001815373299006988,
492
+ "loss": 0.9674293518066406,
493
+ "step": 690
494
+ },
495
+ {
496
+ "epoch": 0.37333333333333335,
497
+ "grad_norm": 0.13900645077228546,
498
+ "learning_rate": 0.00018116954762780436,
499
+ "loss": 0.9520171165466309,
500
+ "step": 700
501
+ },
502
+ {
503
+ "epoch": 0.37866666666666665,
504
+ "grad_norm": 0.1035495176911354,
505
+ "learning_rate": 0.0001808017653549099,
506
+ "loss": 0.9836587905883789,
507
+ "step": 710
508
+ },
509
+ {
510
+ "epoch": 0.384,
511
+ "grad_norm": 0.16256973147392273,
512
+ "learning_rate": 0.00018043398308201545,
513
+ "loss": 0.9725584030151367,
514
+ "step": 720
515
+ },
516
+ {
517
+ "epoch": 0.3893333333333333,
518
+ "grad_norm": 0.11459745466709137,
519
+ "learning_rate": 0.000180066200809121,
520
+ "loss": 0.9442227363586426,
521
+ "step": 730
522
+ },
523
+ {
524
+ "epoch": 0.39466666666666667,
525
+ "grad_norm": 0.12670467793941498,
526
+ "learning_rate": 0.00017969841853622656,
527
+ "loss": 0.871799373626709,
528
+ "step": 740
529
+ },
530
+ {
531
+ "epoch": 0.4,
532
+ "grad_norm": 0.1249232292175293,
533
+ "learning_rate": 0.00017933063626333212,
534
+ "loss": 0.9370894432067871,
535
+ "step": 750
536
+ },
537
+ {
538
+ "epoch": 0.4053333333333333,
539
+ "grad_norm": 0.15810564160346985,
540
+ "learning_rate": 0.00017896285399043765,
541
+ "loss": 0.8658051490783691,
542
+ "step": 760
543
+ },
544
+ {
545
+ "epoch": 0.4106666666666667,
546
+ "grad_norm": 0.15042412281036377,
547
+ "learning_rate": 0.0001785950717175432,
548
+ "loss": 0.8727136611938476,
549
+ "step": 770
550
+ },
551
+ {
552
+ "epoch": 0.416,
553
+ "grad_norm": 0.11843173205852509,
554
+ "learning_rate": 0.00017822728944464876,
555
+ "loss": 0.9302241325378418,
556
+ "step": 780
557
+ },
558
+ {
559
+ "epoch": 0.42133333333333334,
560
+ "grad_norm": 0.15024034678936005,
561
+ "learning_rate": 0.00017785950717175432,
562
+ "loss": 0.8992020606994628,
563
+ "step": 790
564
+ },
565
+ {
566
+ "epoch": 0.4266666666666667,
567
+ "grad_norm": 0.0963372066617012,
568
+ "learning_rate": 0.00017749172489885988,
569
+ "loss": 0.9603084564208985,
570
+ "step": 800
571
+ },
572
+ {
573
+ "epoch": 0.432,
574
+ "grad_norm": 0.1153709664940834,
575
+ "learning_rate": 0.00017712394262596543,
576
+ "loss": 0.9788017272949219,
577
+ "step": 810
578
+ },
579
+ {
580
+ "epoch": 0.43733333333333335,
581
+ "grad_norm": 0.14158199727535248,
582
+ "learning_rate": 0.000176756160353071,
583
+ "loss": 0.8528926849365235,
584
+ "step": 820
585
+ },
586
+ {
587
+ "epoch": 0.44266666666666665,
588
+ "grad_norm": 0.12067638337612152,
589
+ "learning_rate": 0.00017638837808017655,
590
+ "loss": 0.9270169258117675,
591
+ "step": 830
592
+ },
593
+ {
594
+ "epoch": 0.448,
595
+ "grad_norm": 0.13564583659172058,
596
+ "learning_rate": 0.0001760205958072821,
597
+ "loss": 0.9491316795349121,
598
+ "step": 840
599
+ },
600
+ {
601
+ "epoch": 0.4533333333333333,
602
+ "grad_norm": 0.1274612843990326,
603
+ "learning_rate": 0.00017565281353438766,
604
+ "loss": 0.8999369621276856,
605
+ "step": 850
606
+ },
607
+ {
608
+ "epoch": 0.45866666666666667,
609
+ "grad_norm": 0.14616525173187256,
610
+ "learning_rate": 0.00017528503126149322,
611
+ "loss": 0.8925825119018554,
612
+ "step": 860
613
+ },
614
+ {
615
+ "epoch": 0.464,
616
+ "grad_norm": 0.11437668651342392,
617
+ "learning_rate": 0.00017491724898859875,
618
+ "loss": 0.857603645324707,
619
+ "step": 870
620
+ },
621
+ {
622
+ "epoch": 0.4693333333333333,
623
+ "grad_norm": 0.1542726755142212,
624
+ "learning_rate": 0.0001745494667157043,
625
+ "loss": 0.884759521484375,
626
+ "step": 880
627
+ },
628
+ {
629
+ "epoch": 0.4746666666666667,
630
+ "grad_norm": 0.14314775168895721,
631
+ "learning_rate": 0.00017418168444280986,
632
+ "loss": 0.9026338577270507,
633
+ "step": 890
634
+ },
635
+ {
636
+ "epoch": 0.48,
637
+ "grad_norm": 0.1318540871143341,
638
+ "learning_rate": 0.00017381390216991542,
639
+ "loss": 0.9048086166381836,
640
+ "step": 900
641
+ },
642
+ {
643
+ "epoch": 0.48533333333333334,
644
+ "grad_norm": 0.14009934663772583,
645
+ "learning_rate": 0.00017344611989702097,
646
+ "loss": 0.8716842651367187,
647
+ "step": 910
648
+ },
649
+ {
650
+ "epoch": 0.49066666666666664,
651
+ "grad_norm": 0.11144368350505829,
652
+ "learning_rate": 0.00017307833762412653,
653
+ "loss": 0.8560963630676269,
654
+ "step": 920
655
+ },
656
+ {
657
+ "epoch": 0.496,
658
+ "grad_norm": 0.11742467433214188,
659
+ "learning_rate": 0.0001727105553512321,
660
+ "loss": 0.9024827957153321,
661
+ "step": 930
662
+ },
663
+ {
664
+ "epoch": 0.5013333333333333,
665
+ "grad_norm": 0.13162516057491302,
666
+ "learning_rate": 0.00017234277307833764,
667
+ "loss": 0.9039396286010742,
668
+ "step": 940
669
+ },
670
+ {
671
+ "epoch": 0.5066666666666667,
672
+ "grad_norm": 0.13514642417430878,
673
+ "learning_rate": 0.0001719749908054432,
674
+ "loss": 0.9337002754211425,
675
+ "step": 950
676
+ },
677
+ {
678
+ "epoch": 0.512,
679
+ "grad_norm": 0.12670394778251648,
680
+ "learning_rate": 0.00017160720853254876,
681
+ "loss": 0.9054777145385742,
682
+ "step": 960
683
+ },
684
+ {
685
+ "epoch": 0.5173333333333333,
686
+ "grad_norm": 0.12156554311513901,
687
+ "learning_rate": 0.0001712394262596543,
688
+ "loss": 0.8892666816711425,
689
+ "step": 970
690
+ },
691
+ {
692
+ "epoch": 0.5226666666666666,
693
+ "grad_norm": 0.13416580855846405,
694
+ "learning_rate": 0.00017087164398675984,
695
+ "loss": 0.878023910522461,
696
+ "step": 980
697
+ },
698
+ {
699
+ "epoch": 0.528,
700
+ "grad_norm": 0.13485731184482574,
701
+ "learning_rate": 0.0001705038617138654,
702
+ "loss": 0.9051738739013672,
703
+ "step": 990
704
+ },
705
+ {
706
+ "epoch": 0.5333333333333333,
707
+ "grad_norm": 0.1367981880903244,
708
+ "learning_rate": 0.00017013607944097096,
709
+ "loss": 0.9141511917114258,
710
+ "step": 1000
711
  }
712
  ],
713
  "logging_steps": 10,
 
727
  "attributes": {}
728
  }
729
  },
730
+ "total_flos": 9.038133218021376e+16,
731
  "train_batch_size": 1,
732
  "trial_name": null,
733
  "trial_params": null