Arabic_CrossPrompt_FineTuningAraBERT_noAug_TestTask5_relevance

This model is a fine-tuned version of aubmindlab/bert-base-arabertv02 on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 0.1931
  • Qwk: 0.0568
  • Mse: 0.1931
  • Rmse: 0.4394

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 100

Training results

Training Loss Epoch Step Validation Loss Qwk Mse Rmse
No log 0.0198 2 1.0048 -0.0209 1.0048 1.0024
No log 0.0396 4 0.4692 0.0788 0.4692 0.6849
No log 0.0594 6 0.2166 0.0126 0.2166 0.4654
No log 0.0792 8 0.2787 -0.0772 0.2787 0.5280
No log 0.0990 10 0.2547 -0.0502 0.2547 0.5047
No log 0.1188 12 0.2189 0.0348 0.2189 0.4679
No log 0.1386 14 0.2686 0.0 0.2686 0.5182
No log 0.1584 16 0.3252 0.0097 0.3252 0.5703
No log 0.1782 18 0.2542 0.0 0.2542 0.5042
No log 0.1980 20 0.2045 -0.0196 0.2045 0.4522
No log 0.2178 22 0.1997 0.0077 0.1997 0.4469
No log 0.2376 24 0.1988 0.0077 0.1988 0.4459
No log 0.2574 26 0.2293 0.0 0.2293 0.4788
No log 0.2772 28 0.2266 0.0 0.2266 0.4761
No log 0.2970 30 0.2187 0.0 0.2187 0.4676
No log 0.3168 32 0.2193 0.0 0.2193 0.4683
No log 0.3366 34 0.2244 -0.0099 0.2244 0.4737
No log 0.3564 36 0.2019 0.0055 0.2019 0.4494
No log 0.3762 38 0.1921 0.0219 0.1921 0.4383
No log 0.3960 40 0.1993 0.1339 0.1993 0.4464
No log 0.4158 42 0.2242 0.1475 0.2242 0.4735
No log 0.4356 44 0.1968 0.1836 0.1968 0.4437
No log 0.4554 46 0.1999 0.0819 0.1999 0.4471
No log 0.4752 48 0.2847 0.0 0.2847 0.5335
No log 0.4950 50 0.3360 0.0 0.3360 0.5797
No log 0.5149 52 0.2770 0.0 0.2770 0.5263
No log 0.5347 54 0.2088 0.0 0.2088 0.4570
No log 0.5545 56 0.2028 -0.0145 0.2028 0.4503
No log 0.5743 58 0.2254 0.0575 0.2254 0.4747
No log 0.5941 60 0.2150 0.0222 0.2150 0.4637
No log 0.6139 62 0.1937 -0.0115 0.1937 0.4401
No log 0.6337 64 0.2085 0.0 0.2085 0.4566
No log 0.6535 66 0.3101 0.0188 0.3101 0.5569
No log 0.6733 68 0.4207 0.0275 0.4207 0.6486
No log 0.6931 70 0.4048 0.0097 0.4048 0.6362
No log 0.7129 72 0.3092 0.0 0.3092 0.5561
No log 0.7327 74 0.2155 0.0 0.2155 0.4642
No log 0.7525 76 0.2058 0.0 0.2058 0.4537
No log 0.7723 78 0.2277 -0.0426 0.2277 0.4772
No log 0.7921 80 0.2540 0.0480 0.2540 0.5040
No log 0.8119 82 0.2480 0.0617 0.2480 0.4980
No log 0.8317 84 0.2145 0.0716 0.2145 0.4631
No log 0.8515 86 0.2145 -0.0221 0.2145 0.4631
No log 0.8713 88 0.2366 0.0055 0.2366 0.4865
No log 0.8911 90 0.2316 0.0150 0.2316 0.4813
No log 0.9109 92 0.2072 -0.0056 0.2072 0.4552
No log 0.9307 94 0.1953 0.0681 0.1953 0.4419
No log 0.9505 96 0.1954 0.1058 0.1954 0.4421
No log 0.9703 98 0.1902 0.1736 0.1902 0.4361
No log 0.9901 100 0.1949 0.0721 0.1949 0.4415
No log 1.0099 102 0.2078 0.0410 0.2078 0.4558
No log 1.0297 104 0.2070 0.1180 0.2070 0.4549
No log 1.0495 106 0.2014 0.1153 0.2014 0.4488
No log 1.0693 108 0.1940 0.1452 0.1940 0.4404
No log 1.0891 110 0.1910 0.1669 0.1910 0.4371
No log 1.1089 112 0.1948 0.1394 0.1948 0.4414
No log 1.1287 114 0.1912 0.1722 0.1912 0.4372
No log 1.1485 116 0.1949 0.2363 0.1949 0.4415
No log 1.1683 118 0.1970 0.1303 0.1970 0.4438
No log 1.1881 120 0.1937 -0.0003 0.1937 0.4401
No log 1.2079 122 0.1991 0.1445 0.1991 0.4462
No log 1.2277 124 0.1951 0.1679 0.1951 0.4417
No log 1.2475 126 0.1927 0.1249 0.1927 0.4389
No log 1.2673 128 0.2020 0.0351 0.2020 0.4494
No log 1.2871 130 0.1931 0.0790 0.1931 0.4394
No log 1.3069 132 0.1883 0.0568 0.1883 0.4340
No log 1.3267 134 0.2019 0.0175 0.2019 0.4494
No log 1.3465 136 0.1996 0.0444 0.1996 0.4467
No log 1.3663 138 0.2057 0.0 0.2057 0.4535
No log 1.3861 140 0.2259 0.0 0.2259 0.4753
No log 1.4059 142 0.2109 0.0 0.2109 0.4593
No log 1.4257 144 0.1902 0.0546 0.1902 0.4362
No log 1.4455 146 0.1827 0.1120 0.1827 0.4274
No log 1.4653 148 0.1970 0.1517 0.1970 0.4438
No log 1.4851 150 0.1974 0.1488 0.1974 0.4443
No log 1.5050 152 0.1842 0.1153 0.1842 0.4292
No log 1.5248 154 0.1808 0.0812 0.1808 0.4252
No log 1.5446 156 0.1807 0.0812 0.1807 0.4251
No log 1.5644 158 0.1829 0.0812 0.1829 0.4277
No log 1.5842 160 0.1878 0.0812 0.1878 0.4333
No log 1.6040 162 0.1894 0.0472 0.1894 0.4352
No log 1.6238 164 0.1981 0.1927 0.1981 0.4451
No log 1.6436 166 0.2401 0.1722 0.2401 0.4900
No log 1.6634 168 0.2962 0.0630 0.2962 0.5442
No log 1.6832 170 0.2355 0.1565 0.2355 0.4853
No log 1.7030 172 0.1965 0.1884 0.1965 0.4433
No log 1.7228 174 0.2253 0.0275 0.2253 0.4746
No log 1.7426 176 0.2581 0.0 0.2581 0.5080
No log 1.7624 178 0.2148 0.0 0.2148 0.4634
No log 1.7822 180 0.1873 0.0175 0.1873 0.4328
No log 1.8020 182 0.1852 0.0 0.1852 0.4304
No log 1.8218 184 0.1867 0.0 0.1867 0.4321
No log 1.8416 186 0.2161 0.0 0.2161 0.4649
No log 1.8614 188 0.2611 0.0 0.2611 0.5110
No log 1.8812 190 0.2574 -0.0130 0.2574 0.5074
No log 1.9010 192 0.2723 -0.0571 0.2723 0.5218
No log 1.9208 194 0.3040 -0.0711 0.3040 0.5513
No log 1.9406 196 0.3196 -0.0191 0.3196 0.5653
No log 1.9604 198 0.2826 -0.0342 0.2826 0.5316
No log 1.9802 200 0.2344 0.0735 0.2344 0.4842
No log 2.0 202 0.2154 -0.0309 0.2154 0.4641
No log 2.0198 204 0.2214 0.0077 0.2214 0.4706
No log 2.0396 206 0.2227 0.0 0.2227 0.4720
No log 2.0594 208 0.2332 0.0 0.2332 0.4829
No log 2.0792 210 0.2211 0.0 0.2211 0.4703
No log 2.0990 212 0.2163 0.0 0.2163 0.4651
No log 2.1188 214 0.2111 0.0 0.2111 0.4594
No log 2.1386 216 0.2140 0.0 0.2140 0.4627
No log 2.1584 218 0.2153 0.0 0.2153 0.4640
No log 2.1782 220 0.2063 0.0 0.2063 0.4542
No log 2.1980 222 0.1963 0.0275 0.1963 0.4430
No log 2.2178 224 0.1919 0.0546 0.1919 0.4380
No log 2.2376 226 0.1911 0.0812 0.1911 0.4372
No log 2.2574 228 0.1896 0.0812 0.1896 0.4354
No log 2.2772 230 0.1876 0.0546 0.1876 0.4331
No log 2.2970 232 0.1860 0.0546 0.1860 0.4312
No log 2.3168 234 0.1859 0.0444 0.1859 0.4312
No log 2.3366 236 0.1871 0.0344 0.1871 0.4325
No log 2.3564 238 0.1875 0.0607 0.1875 0.4330
No log 2.3762 240 0.1883 0.1267 0.1883 0.4339
No log 2.3960 242 0.1906 0.1445 0.1906 0.4366
No log 2.4158 244 0.1899 0.1308 0.1899 0.4358
No log 2.4356 246 0.1897 0.0918 0.1897 0.4356
No log 2.4554 248 0.1959 0.0607 0.1959 0.4426
No log 2.4752 250 0.2106 0.0444 0.2106 0.4589
No log 2.4950 252 0.2400 -0.0099 0.2400 0.4899
No log 2.5149 254 0.2568 0.0 0.2568 0.5068
No log 2.5347 256 0.2461 0.0 0.2461 0.4961
No log 2.5545 258 0.2230 0.0546 0.2230 0.4722
No log 2.5743 260 0.2077 0.0812 0.2077 0.4558
No log 2.5941 262 0.2072 0.1005 0.2072 0.4552
No log 2.6139 264 0.2184 0.1122 0.2184 0.4673
No log 2.6337 266 0.2159 0.0797 0.2159 0.4647
No log 2.6535 268 0.2084 0.1052 0.2084 0.4565
No log 2.6733 270 0.2001 0.1153 0.2001 0.4474
No log 2.6931 272 0.1944 0.0275 0.1944 0.4409
No log 2.7129 274 0.1903 0.0275 0.1903 0.4362
No log 2.7327 276 0.1915 0.0275 0.1915 0.4377
No log 2.7525 278 0.1928 0.0607 0.1928 0.4391
No log 2.7723 280 0.1954 0.1452 0.1954 0.4421
No log 2.7921 282 0.1944 0.1005 0.1944 0.4409
No log 2.8119 284 0.1872 0.1882 0.1872 0.4327
No log 2.8317 286 0.1814 0.1708 0.1814 0.4259
No log 2.8515 288 0.1786 0.1370 0.1786 0.4226
No log 2.8713 290 0.1836 0.1073 0.1836 0.4285
No log 2.8911 292 0.1926 0.0812 0.1926 0.4388
No log 2.9109 294 0.1969 0.0546 0.1969 0.4437
No log 2.9307 296 0.1929 0.1073 0.1929 0.4392
No log 2.9505 298 0.1850 0.1909 0.1850 0.4301
No log 2.9703 300 0.1896 0.2205 0.1896 0.4354
No log 2.9901 302 0.1946 0.1660 0.1946 0.4411
No log 3.0099 304 0.1920 0.1813 0.1920 0.4382
No log 3.0297 306 0.1854 0.2256 0.1854 0.4306
No log 3.0495 308 0.1900 0.1512 0.1900 0.4359
No log 3.0693 310 0.2069 0.0866 0.2069 0.4548
No log 3.0891 312 0.2121 0.0 0.2121 0.4605
No log 3.1089 314 0.2034 0.0546 0.2034 0.4510
No log 3.1287 316 0.1935 0.0866 0.1935 0.4399
No log 3.1485 318 0.1883 0.0967 0.1883 0.4339
No log 3.1683 320 0.1943 0.1514 0.1943 0.4408
No log 3.1881 322 0.1954 0.1418 0.1954 0.4420
No log 3.2079 324 0.1956 0.1909 0.1956 0.4423
No log 3.2277 326 0.1995 0.1058 0.1995 0.4466
No log 3.2475 328 0.2016 0.1409 0.2016 0.4490
No log 3.2673 330 0.2003 0.1708 0.2003 0.4476
No log 3.2871 332 0.1998 0.1905 0.1998 0.4470
No log 3.3069 334 0.2051 0.1573 0.2051 0.4529
No log 3.3267 336 0.1962 0.2440 0.1962 0.4430
No log 3.3465 338 0.1849 0.2807 0.1849 0.4300
No log 3.3663 340 0.1880 0.2128 0.1880 0.4336
No log 3.3861 342 0.1824 0.2300 0.1824 0.4270
No log 3.4059 344 0.1719 0.2136 0.1719 0.4146
No log 3.4257 346 0.1694 0.2033 0.1694 0.4116
No log 3.4455 348 0.1740 0.1224 0.1740 0.4171
No log 3.4653 350 0.1907 0.0812 0.1907 0.4367
No log 3.4851 352 0.2137 0.0275 0.2137 0.4623
No log 3.5050 354 0.2327 0.0 0.2327 0.4824
No log 3.5248 356 0.2379 0.0 0.2379 0.4878
No log 3.5446 358 0.2233 0.0 0.2233 0.4725
No log 3.5644 360 0.2081 0.0275 0.2081 0.4562
No log 3.5842 362 0.1968 0.0344 0.1968 0.4437
No log 3.6040 364 0.1935 0.0825 0.1935 0.4399
No log 3.6238 366 0.2002 0.0444 0.2002 0.4474
No log 3.6436 368 0.2184 0.0275 0.2184 0.4673
No log 3.6634 370 0.2443 0.0 0.2443 0.4942
No log 3.6832 372 0.2656 0.0 0.2656 0.5154
No log 3.7030 374 0.2690 0.0 0.2690 0.5187
No log 3.7228 376 0.2555 0.0275 0.2555 0.5054
No log 3.7426 378 0.2261 0.0444 0.2261 0.4755
No log 3.7624 380 0.2032 0.0825 0.2032 0.4508
No log 3.7822 382 0.2146 0.2249 0.2146 0.4632
No log 3.8020 384 0.2065 0.2235 0.2065 0.4544
No log 3.8218 386 0.1938 0.0825 0.1938 0.4403
No log 3.8416 388 0.1936 0.0721 0.1936 0.4400
No log 3.8614 390 0.1979 0.0546 0.1979 0.4449
No log 3.8812 392 0.1955 0.0175 0.1955 0.4422
No log 3.9010 394 0.1934 0.0344 0.1934 0.4398
No log 3.9208 396 0.1912 0.0607 0.1912 0.4372
No log 3.9406 398 0.1871 0.1120 0.1871 0.4325
No log 3.9604 400 0.1824 0.1120 0.1824 0.4271
No log 3.9802 402 0.1807 0.2012 0.1807 0.4251
No log 4.0 404 0.1949 0.2327 0.1949 0.4415
No log 4.0198 406 0.2043 0.2430 0.2043 0.4520
No log 4.0396 408 0.2033 0.1882 0.2033 0.4509
No log 4.0594 410 0.2067 0.1610 0.2067 0.4547
No log 4.0792 412 0.2162 0.0709 0.2162 0.4650
No log 4.0990 414 0.2200 0.0812 0.2200 0.4691
No log 4.1188 416 0.2138 0.0546 0.2138 0.4624
No log 4.1386 418 0.2099 0.0546 0.2099 0.4581
No log 4.1584 420 0.2107 0.0546 0.2107 0.4590
No log 4.1782 422 0.1955 0.0812 0.1955 0.4422
No log 4.1980 424 0.1804 0.1858 0.1804 0.4247
No log 4.2178 426 0.1789 0.1933 0.1789 0.4230
No log 4.2376 428 0.1825 0.1781 0.1825 0.4271
No log 4.2574 430 0.1893 0.1370 0.1893 0.4351
No log 4.2772 432 0.1902 0.1752 0.1902 0.4361
No log 4.2970 434 0.1910 0.1610 0.1910 0.4371
No log 4.3168 436 0.1904 0.1998 0.1904 0.4364
No log 4.3366 438 0.1908 0.2205 0.1908 0.4368
No log 4.3564 440 0.1904 0.2397 0.1904 0.4364
No log 4.3762 442 0.1863 0.2594 0.1863 0.4316
No log 4.3960 444 0.1817 0.2485 0.1817 0.4262
No log 4.4158 446 0.1777 0.2385 0.1777 0.4216
No log 4.4356 448 0.1832 0.2495 0.1832 0.4280
No log 4.4554 450 0.1852 0.2054 0.1852 0.4303
No log 4.4752 452 0.1821 0.2594 0.1821 0.4267
No log 4.4950 454 0.1802 0.2711 0.1802 0.4245
No log 4.5149 456 0.1764 0.2623 0.1764 0.4200
No log 4.5347 458 0.1821 0.3000 0.1821 0.4267
No log 4.5545 460 0.1827 0.2408 0.1827 0.4275
No log 4.5743 462 0.1963 0.2096 0.1963 0.4430
No log 4.5941 464 0.2249 0.0812 0.2249 0.4743
No log 4.6139 466 0.2504 0.0275 0.2504 0.5004
No log 4.6337 468 0.2493 0.0275 0.2493 0.4993
No log 4.6535 470 0.2246 0.0275 0.2246 0.4739
No log 4.6733 472 0.1903 0.2116 0.1903 0.4362
No log 4.6931 474 0.1876 0.2023 0.1876 0.4331
No log 4.7129 476 0.2059 0.1859 0.2059 0.4538
No log 4.7327 478 0.1962 0.2137 0.1962 0.4429
No log 4.7525 480 0.1912 0.1808 0.1912 0.4373
No log 4.7723 482 0.2011 0.1409 0.2011 0.4484
No log 4.7921 484 0.1961 0.1546 0.1961 0.4428
No log 4.8119 486 0.2084 0.1370 0.2084 0.4565
No log 4.8317 488 0.2168 0.1120 0.2168 0.4656
No log 4.8515 490 0.2075 0.1267 0.2075 0.4555
No log 4.8713 492 0.2035 0.1308 0.2035 0.4512
No log 4.8911 494 0.2077 0.1218 0.2077 0.4557
No log 4.9109 496 0.2118 0.1372 0.2118 0.4602
No log 4.9307 498 0.1994 0.1545 0.1994 0.4465
0.2232 4.9505 500 0.1940 0.1476 0.1940 0.4405
0.2232 4.9703 502 0.2014 0.0709 0.2014 0.4488
0.2232 4.9901 504 0.2084 0.0546 0.2084 0.4565
0.2232 5.0099 506 0.1972 0.1723 0.1972 0.4441
0.2232 5.0297 508 0.1859 0.2012 0.1859 0.4311
0.2232 5.0495 510 0.1927 0.1696 0.1927 0.4390
0.2232 5.0693 512 0.1975 0.1427 0.1975 0.4444
0.2232 5.0891 514 0.1898 0.2054 0.1898 0.4357
0.2232 5.1089 516 0.1941 0.2239 0.1941 0.4406
0.2232 5.1287 518 0.2053 0.1120 0.2053 0.4531
0.2232 5.1485 520 0.2045 0.0969 0.2045 0.4522
0.2232 5.1683 522 0.2021 0.0344 0.2021 0.4496
0.2232 5.1881 524 0.1988 0.1018 0.1988 0.4459
0.2232 5.2079 526 0.1897 0.1808 0.1897 0.4355
0.2232 5.2277 528 0.2045 0.1148 0.2045 0.4523
0.2232 5.2475 530 0.3032 0.1874 0.3032 0.5506
0.2232 5.2673 532 0.3094 0.1706 0.3094 0.5562
0.2232 5.2871 534 0.2181 0.1790 0.2181 0.4670
0.2232 5.3069 536 0.2021 0.1752 0.2021 0.4495
0.2232 5.3267 538 0.2671 0.0444 0.2671 0.5168
0.2232 5.3465 540 0.2850 0.0444 0.2850 0.5338
0.2232 5.3663 542 0.2558 0.0444 0.2558 0.5058
0.2232 5.3861 544 0.2135 0.0344 0.2135 0.4620
0.2232 5.4059 546 0.1931 0.0568 0.1931 0.4394

Framework versions

  • Transformers 4.44.2
  • Pytorch 2.4.0+cu118
  • Datasets 2.21.0
  • Tokenizers 0.19.1
Downloads last month
-
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for MayBashendy/Arabic_CrossPrompt_FineTuningAraBERT_noAug_TestTask5_relevance

Finetuned
(4019)
this model