Arabic_CrossPrompt_FineTuningAraBERT_noAug_TestTask3_relevance

This model is a fine-tuned version of aubmindlab/bert-base-arabertv02 on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 0.1877
  • Qwk: 0.0614
  • Mse: 0.1877
  • Rmse: 0.4333

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 100

Training results

Training Loss Epoch Step Validation Loss Qwk Mse Rmse
No log 0.0194 2 1.0526 0.0107 1.0526 1.0259
No log 0.0388 4 0.4192 0.0939 0.4192 0.6474
No log 0.0583 6 0.2912 0.0737 0.2912 0.5396
No log 0.0777 8 0.3502 0.0126 0.3502 0.5918
No log 0.0971 10 0.2277 0.0814 0.2277 0.4771
No log 0.1165 12 0.1736 0.1817 0.1736 0.4167
No log 0.1359 14 0.1703 0.0252 0.1703 0.4127
No log 0.1553 16 0.2313 0.0700 0.2313 0.4809
No log 0.1748 18 0.2433 0.1129 0.2433 0.4932
No log 0.1942 20 0.1817 0.1898 0.1817 0.4262
No log 0.2136 22 0.1854 0.1594 0.1854 0.4305
No log 0.2330 24 0.2068 0.0879 0.2068 0.4548
No log 0.2524 26 0.2076 0.0721 0.2076 0.4556
No log 0.2718 28 0.1700 0.0783 0.1700 0.4124
No log 0.2913 30 0.1599 0.0904 0.1599 0.3999
No log 0.3107 32 0.1574 0.0998 0.1574 0.3968
No log 0.3301 34 0.1602 0.0558 0.1602 0.4003
No log 0.3495 36 0.1693 0.0654 0.1693 0.4114
No log 0.3689 38 0.1736 0.0654 0.1736 0.4166
No log 0.3883 40 0.1724 0.1398 0.1724 0.4152
No log 0.4078 42 0.1768 0.1122 0.1768 0.4205
No log 0.4272 44 0.1968 0.2776 0.1968 0.4436
No log 0.4466 46 0.2436 0.3054 0.2436 0.4935
No log 0.4660 48 0.3182 0.2139 0.3182 0.5641
No log 0.4854 50 0.2725 0.2682 0.2725 0.5220
No log 0.5049 52 0.2014 0.1260 0.2014 0.4488
No log 0.5243 54 0.1870 0.0223 0.1870 0.4324
No log 0.5437 56 0.1963 0.0421 0.1963 0.4431
No log 0.5631 58 0.2304 0.1068 0.2304 0.4800
No log 0.5825 60 0.2817 0.1692 0.2817 0.5307
No log 0.6019 62 0.2880 0.0710 0.2880 0.5366
No log 0.6214 64 0.2879 -0.0637 0.2879 0.5366
No log 0.6408 66 0.2477 0.0780 0.2477 0.4977
No log 0.6602 68 0.2117 0.1398 0.2117 0.4601
No log 0.6796 70 0.1707 0.2269 0.1707 0.4131
No log 0.6990 72 0.1809 0.2356 0.1809 0.4253
No log 0.7184 74 0.1795 0.2103 0.1795 0.4236
No log 0.7379 76 0.1706 0.1203 0.1706 0.4131
No log 0.7573 78 0.1504 0.0558 0.1504 0.3879
No log 0.7767 80 0.1490 0.0229 0.1490 0.3860
No log 0.7961 82 0.1466 0.1193 0.1466 0.3829
No log 0.8155 84 0.1549 0.2704 0.1549 0.3935
No log 0.8350 86 0.2034 0.2548 0.2034 0.4510
No log 0.8544 88 0.1799 0.2452 0.1799 0.4242
No log 0.8738 90 0.1448 0.0558 0.1448 0.3805
No log 0.8932 92 0.1832 -0.0189 0.1832 0.4280
No log 0.9126 94 0.1900 0.0654 0.1900 0.4359
No log 0.9320 96 0.1800 0.1817 0.1800 0.4242
No log 0.9515 98 0.1880 0.0905 0.1880 0.4336
No log 0.9709 100 0.2165 0.2462 0.2165 0.4653
No log 0.9903 102 0.2101 0.1551 0.2101 0.4583
No log 1.0097 104 0.1642 0.0752 0.1642 0.4052
No log 1.0291 106 0.1553 0.0514 0.1553 0.3941
No log 1.0485 108 0.1558 0.0852 0.1558 0.3947
No log 1.0680 110 0.1578 0.0752 0.1578 0.3972
No log 1.0874 112 0.1648 0.0752 0.1648 0.4059
No log 1.1068 114 0.1629 0.1397 0.1629 0.4036
No log 1.1262 116 0.1667 0.1904 0.1667 0.4083
No log 1.1456 118 0.1854 0.2296 0.1854 0.4306
No log 1.1650 120 0.1834 0.2334 0.1834 0.4283
No log 1.1845 122 0.1694 0.1798 0.1694 0.4116
No log 1.2039 124 0.1681 0.1709 0.1681 0.4100
No log 1.2233 126 0.1636 0.1294 0.1636 0.4044
No log 1.2427 128 0.1590 0.0654 0.1590 0.3988
No log 1.2621 130 0.1756 0.0955 0.1756 0.4191
No log 1.2816 132 0.2280 0.0955 0.2280 0.4775
No log 1.3010 134 0.2473 0.0264 0.2473 0.4973
No log 1.3204 136 0.2208 -0.0096 0.2208 0.4699
No log 1.3398 138 0.1770 -0.0096 0.1770 0.4207
No log 1.3592 140 0.1691 -0.0096 0.1691 0.4112
No log 1.3786 142 0.1698 -0.0096 0.1698 0.4121
No log 1.3981 144 0.1773 0.1203 0.1773 0.4211
No log 1.4175 146 0.1746 0.1492 0.1746 0.4179
No log 1.4369 148 0.1584 0.1079 0.1584 0.3980
No log 1.4563 150 0.1568 0.0264 0.1568 0.3960
No log 1.4757 152 0.1729 0.0264 0.1729 0.4159
No log 1.4951 154 0.1851 0.0322 0.1851 0.4303
No log 1.5146 156 0.2062 0.0264 0.2062 0.4541
No log 1.5340 158 0.1972 0.0264 0.1972 0.4441
No log 1.5534 160 0.1751 0.0783 0.1751 0.4184
No log 1.5728 162 0.1801 0.1964 0.1801 0.4244
No log 1.5922 164 0.1757 0.1827 0.1757 0.4191
No log 1.6117 166 0.1620 0.0654 0.1620 0.4025
No log 1.6311 168 0.1595 0.0264 0.1595 0.3993
No log 1.6505 170 0.1657 0.0264 0.1657 0.4071
No log 1.6699 172 0.1706 0.0264 0.1706 0.4130
No log 1.6893 174 0.1811 0.0852 0.1811 0.4256
No log 1.7087 176 0.1975 0.1862 0.1975 0.4444
No log 1.7282 178 0.1913 0.1938 0.1913 0.4374
No log 1.7476 180 0.1972 0.2654 0.1972 0.4441
No log 1.7670 182 0.1704 0.1766 0.1704 0.4128
No log 1.7864 184 0.1510 -0.0019 0.1510 0.3885
No log 1.8058 186 0.1490 -0.0096 0.1490 0.3860
No log 1.8252 188 0.1472 0.1288 0.1472 0.3837
No log 1.8447 190 0.1505 0.0614 0.1505 0.3880
No log 1.8641 192 0.1678 -0.0096 0.1678 0.4097
No log 1.8835 194 0.1775 -0.0096 0.1775 0.4214
No log 1.9029 196 0.1638 0.0614 0.1638 0.4047
No log 1.9223 198 0.1531 0.0752 0.1531 0.3913
No log 1.9417 200 0.1504 0.1683 0.1504 0.3878
No log 1.9612 202 0.1612 0.2517 0.1612 0.4015
No log 1.9806 204 0.1956 0.2651 0.1956 0.4423
No log 2.0 206 0.2195 0.2361 0.2195 0.4685
No log 2.0194 208 0.2023 0.2503 0.2023 0.4498
No log 2.0388 210 0.1771 0.2358 0.1771 0.4209
No log 2.0583 212 0.1551 0.1672 0.1551 0.3939
No log 2.0777 214 0.1464 0.1294 0.1464 0.3827
No log 2.0971 216 0.1474 0.0852 0.1474 0.3839
No log 2.1165 218 0.1481 0.0852 0.1481 0.3848
No log 2.1359 220 0.1451 0.0879 0.1451 0.3809
No log 2.1553 222 0.1549 0.3051 0.1549 0.3936
No log 2.1748 224 0.1774 0.3305 0.1774 0.4212
No log 2.1942 226 0.1755 0.2743 0.1755 0.4189
No log 2.2136 228 0.1581 0.2198 0.1581 0.3976
No log 2.2330 230 0.1545 0.0167 0.1545 0.3931
No log 2.2524 232 0.1597 0.0 0.1597 0.3997
No log 2.2718 234 0.1746 -0.0096 0.1746 0.4179
No log 2.2913 236 0.1773 -0.0096 0.1773 0.4210
No log 2.3107 238 0.1665 0.0654 0.1665 0.4081
No log 2.3301 240 0.1672 -0.0189 0.1672 0.4089
No log 2.3495 242 0.1740 -0.0096 0.1740 0.4171
No log 2.3689 244 0.1654 -0.0096 0.1654 0.4067
No log 2.3883 246 0.1538 -0.0096 0.1538 0.3921
No log 2.4078 248 0.1516 -0.0189 0.1516 0.3893
No log 2.4272 250 0.1548 0.0514 0.1548 0.3934
No log 2.4466 252 0.1586 0.2309 0.1586 0.3982
No log 2.4660 254 0.1571 0.2309 0.1571 0.3964
No log 2.4854 256 0.1527 0.1709 0.1527 0.3907
No log 2.5049 258 0.1563 0.1709 0.1563 0.3954
No log 2.5243 260 0.1518 0.0852 0.1518 0.3897
No log 2.5437 262 0.1457 0.1061 0.1457 0.3817
No log 2.5631 264 0.1459 0.0717 0.1459 0.3819
No log 2.5825 266 0.1459 0.0717 0.1459 0.3819
No log 2.6019 268 0.1459 0.0717 0.1459 0.3819
No log 2.6214 270 0.1459 0.1396 0.1459 0.3820
No log 2.6408 272 0.1438 0.1709 0.1438 0.3793
No log 2.6602 274 0.1412 0.1397 0.1412 0.3757
No log 2.6796 276 0.1410 0.2012 0.1410 0.3754
No log 2.6990 278 0.1403 0.1079 0.1403 0.3745
No log 2.7184 280 0.1399 0.2198 0.1399 0.3741
No log 2.7379 282 0.1424 0.2817 0.1424 0.3774
No log 2.7573 284 0.1460 0.2805 0.1460 0.3821
No log 2.7767 286 0.1524 0.2607 0.1524 0.3903
No log 2.7961 288 0.1669 0.3065 0.1669 0.4085
No log 2.8155 290 0.1852 0.2769 0.1852 0.4303
No log 2.8350 292 0.1822 0.2929 0.1822 0.4268
No log 2.8544 294 0.1694 0.2896 0.1694 0.4116
No log 2.8738 296 0.1569 0.3184 0.1569 0.3962
No log 2.8932 298 0.1457 0.3637 0.1457 0.3817
No log 2.9126 300 0.1418 0.1603 0.1418 0.3765
No log 2.9320 302 0.1468 0.0978 0.1468 0.3831
No log 2.9515 304 0.1496 0.0285 0.1496 0.3868
No log 2.9709 306 0.1498 0.0722 0.1498 0.3871
No log 2.9903 308 0.1493 0.0167 0.1493 0.3864
No log 3.0097 310 0.1555 0.0264 0.1555 0.3944
No log 3.0291 312 0.1472 0.0852 0.1472 0.3837
No log 3.0485 314 0.1404 0.2198 0.1404 0.3747
No log 3.0680 316 0.1413 0.2928 0.1413 0.3760
No log 3.0874 318 0.1441 0.1904 0.1441 0.3797
No log 3.1068 320 0.1507 0.3082 0.1507 0.3882
No log 3.1262 322 0.1500 0.3746 0.1500 0.3873
No log 3.1456 324 0.1493 0.3637 0.1493 0.3864
No log 3.1650 326 0.1436 0.3507 0.1436 0.3789
No log 3.1845 328 0.1432 0.3762 0.1432 0.3784
No log 3.2039 330 0.1379 0.3617 0.1379 0.3714
No log 3.2233 332 0.1363 0.2972 0.1363 0.3692
No log 3.2427 334 0.1383 0.2602 0.1383 0.3719
No log 3.2621 336 0.1415 0.3156 0.1415 0.3761
No log 3.2816 338 0.1462 0.3230 0.1462 0.3824
No log 3.3010 340 0.1536 0.1499 0.1536 0.3919
No log 3.3204 342 0.1552 0.1612 0.1552 0.3939
No log 3.3398 344 0.1490 0.1817 0.1490 0.3860
No log 3.3592 346 0.1433 0.2655 0.1433 0.3785
No log 3.3786 348 0.1659 0.3059 0.1659 0.4072
No log 3.3981 350 0.1902 0.3256 0.1902 0.4361
No log 3.4175 352 0.1717 0.3213 0.1717 0.4144
No log 3.4369 354 0.1470 0.2817 0.1470 0.3834
No log 3.4563 356 0.1544 0.0417 0.1544 0.3929
No log 3.4757 358 0.1822 -0.0096 0.1822 0.4268
No log 3.4951 360 0.1862 -0.0096 0.1862 0.4315
No log 3.5146 362 0.1621 0.0614 0.1621 0.4026
No log 3.5340 364 0.1522 0.0783 0.1522 0.3902
No log 3.5534 366 0.1593 0.1492 0.1593 0.3991
No log 3.5728 368 0.1562 0.1672 0.1562 0.3953
No log 3.5922 370 0.1508 0.0783 0.1508 0.3883
No log 3.6117 372 0.1521 0.0852 0.1521 0.3900
No log 3.6311 374 0.1568 0.0752 0.1568 0.3960
No log 3.6505 376 0.1629 0.0852 0.1629 0.4036
No log 3.6699 378 0.1682 0.0752 0.1682 0.4101
No log 3.6893 380 0.1787 0.0654 0.1787 0.4227
No log 3.7087 382 0.1937 0.1350 0.1937 0.4401
No log 3.7282 384 0.2799 0.1707 0.2799 0.5291
No log 3.7476 386 0.2928 0.1802 0.2928 0.5411
No log 3.7670 388 0.1964 0.1966 0.1964 0.4432
No log 3.7864 390 0.1595 0.1193 0.1595 0.3994
No log 3.8058 392 0.1608 0.0852 0.1608 0.4010
No log 3.8252 394 0.1578 0.0852 0.1578 0.3972
No log 3.8447 396 0.1494 0.0752 0.1494 0.3865
No log 3.8641 398 0.1428 0.2164 0.1428 0.3779
No log 3.8835 400 0.1471 0.3637 0.1471 0.3836
No log 3.9029 402 0.1547 0.3893 0.1547 0.3933
No log 3.9223 404 0.1634 0.3514 0.1634 0.4043
No log 3.9417 406 0.1546 0.3804 0.1546 0.3931
No log 3.9612 408 0.1423 0.3637 0.1423 0.3773
No log 3.9806 410 0.1430 0.2949 0.1430 0.3782
No log 4.0 412 0.1473 0.2439 0.1473 0.3838
No log 4.0194 414 0.1491 0.2486 0.1491 0.3861
No log 4.0388 416 0.1586 0.1928 0.1586 0.3983
No log 4.0583 418 0.1703 0.1723 0.1703 0.4127
No log 4.0777 420 0.1698 0.1061 0.1698 0.4120
No log 4.0971 422 0.1580 0.1396 0.1580 0.3975
No log 4.1165 424 0.1469 0.1928 0.1469 0.3832
No log 4.1359 426 0.1475 0.1985 0.1475 0.3840
No log 4.1553 428 0.1551 0.1917 0.1551 0.3938
No log 4.1748 430 0.1528 0.2139 0.1528 0.3909
No log 4.1942 432 0.1473 0.2794 0.1473 0.3837
No log 4.2136 434 0.1478 0.3220 0.1478 0.3844
No log 4.2330 436 0.1550 0.3091 0.1550 0.3937
No log 4.2524 438 0.1619 0.2980 0.1619 0.4024
No log 4.2718 440 0.1609 0.3330 0.1609 0.4011
No log 4.2913 442 0.1582 0.3087 0.1582 0.3977
No log 4.3107 444 0.1640 0.2654 0.1640 0.4050
No log 4.3301 446 0.1668 0.2396 0.1668 0.4084
No log 4.3495 448 0.1678 0.2269 0.1678 0.4097
No log 4.3689 450 0.1589 0.2599 0.1589 0.3986
No log 4.3883 452 0.1496 0.1594 0.1496 0.3868
No log 4.4078 454 0.1499 0.2261 0.1499 0.3872
No log 4.4272 456 0.1614 0.3305 0.1614 0.4017
No log 4.4466 458 0.1706 0.3095 0.1706 0.4130
No log 4.4660 460 0.1528 0.3421 0.1528 0.3909
No log 4.4854 462 0.1456 0.2296 0.1456 0.3816
No log 4.5049 464 0.1482 0.2334 0.1482 0.3850
No log 4.5243 466 0.1446 0.3655 0.1446 0.3802
No log 4.5437 468 0.1448 0.3913 0.1448 0.3805
No log 4.5631 470 0.1458 0.3449 0.1458 0.3818
No log 4.5825 472 0.1485 0.3013 0.1485 0.3853
No log 4.6019 474 0.1530 0.2269 0.1530 0.3911
No log 4.6214 476 0.1529 0.0904 0.1529 0.3910
No log 4.6408 478 0.1528 0.0421 0.1528 0.3909
No log 4.6602 480 0.1516 0.0421 0.1516 0.3893
No log 4.6796 482 0.1525 0.0336 0.1525 0.3905
No log 4.6990 484 0.1521 0.0421 0.1521 0.3900
No log 4.7184 486 0.1527 0.0598 0.1527 0.3908
No log 4.7379 488 0.1548 0.1095 0.1548 0.3934
No log 4.7573 490 0.1552 0.0904 0.1552 0.3940
No log 4.7767 492 0.1566 0.2356 0.1566 0.3957
No log 4.7961 494 0.1709 0.1695 0.1709 0.4134
No log 4.8155 496 0.1810 0.1950 0.1810 0.4254
No log 4.8350 498 0.1810 0.2149 0.1810 0.4255
0.2238 4.8544 500 0.1776 0.2097 0.1776 0.4214
0.2238 4.8738 502 0.1633 0.2028 0.1633 0.4040
0.2238 4.8932 504 0.1611 0.1492 0.1611 0.4014
0.2238 4.9126 506 0.1711 0.1499 0.1711 0.4136
0.2238 4.9320 508 0.1855 0.0614 0.1855 0.4307
0.2238 4.9515 510 0.1877 0.0614 0.1877 0.4333

Framework versions

  • Transformers 4.44.2
  • Pytorch 2.4.0+cu118
  • Datasets 2.21.0
  • Tokenizers 0.19.1
Downloads last month
-
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for MayBashendy/Arabic_CrossPrompt_FineTuningAraBERT_noAug_TestTask3_relevance

Finetuned
(4019)
this model