antonypamo commited on
Commit
c5374e6
·
verified ·
1 Parent(s): 9299f86

Upload 12 files

Browse files
config.json ADDED
@@ -0,0 +1,38 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "adaptive_state": {
3
+ "meta": {
4
+ "fusion_mode": "SAVANT\u2013\u03a6\u2084.1\u221e+ symbiotic",
5
+ "fusion_timestamp": "2025-10-09"
6
+ },
7
+ "resonance_vector": [
8
+ 0.006346969060972333
9
+ ]
10
+ },
11
+ "architectures": [
12
+ "BertForSequenceClassification"
13
+ ],
14
+ "attention_probs_dropout_prob": 0.1,
15
+ "classifier_dropout": null,
16
+ "dtype": "float32",
17
+ "geometry": "icosa\u2013dodeca\u2013resonant",
18
+ "gradient_checkpointing": false,
19
+ "hidden_act": "gelu",
20
+ "hidden_dropout_prob": 0.1,
21
+ "hidden_size": 768,
22
+ "initializer_range": 0.02,
23
+ "intermediate_size": 3072,
24
+ "layer_norm_eps": 1e-12,
25
+ "max_position_embeddings": 512,
26
+ "model_type": "bert",
27
+ "num_attention_heads": 12,
28
+ "num_hidden_layers": 12,
29
+ "pad_token_id": 0,
30
+ "position_embedding_type": "absolute",
31
+ "problem_type": "single_label_classification",
32
+ "rrf_mode": "\u03a6\u2084.1\u221e+",
33
+ "symbiotic_energy": -0.695067822933197,
34
+ "transformers_version": "4.57.0",
35
+ "type_vocab_size": 2,
36
+ "use_cache": true,
37
+ "vocab_size": 30522
38
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0bf8ccf5d63e49ea13a92e38ece92a618d45c32d2a24fed9abb4880ffe23ab9b
3
+ size 437958648
optimizer.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:7f82501ade94aff2225514cd2c189ab6a9c7b7db42ec6852e611f866e7198ad2
3
+ size 876033163
persistent_memory.pkl ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:9acb5ff8167135dfbb2e90230551615cf4e103961382c5b532eecc5714223a0f
3
+ size 3458020
rng_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b8d9997ac7114ba0fce35b01490f28374d48edc62599868a2f281645498cf19d
3
+ size 14455
rrf_savant_state.json ADDED
The diff for this file is too large to render. See raw diff
 
rrf_savant_symbiotic_adaptive.json ADDED
@@ -0,0 +1,15 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "fusion_model": {
3
+ "alpha": 0.000800616224296391,
4
+ "beta": 0.48815417289733887,
5
+ "gamma": 0.5110452175140381,
6
+ "training_steps": 200,
7
+ "learning_rate": 0.01,
8
+ "adaptive_rule": "Homeostasis resonante \u03a6\u2084.3"
9
+ },
10
+ "meta": {
11
+ "version": "\u03a6\u2084.3",
12
+ "description": "Memoria simbi\u00f3tica resonante base para RRF-Savant",
13
+ "device": "cpu"
14
+ }
15
+ }
savant_memory.json ADDED
@@ -0,0 +1,421 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "memory": [],
3
+ "amplitudes": [
4
+ [
5
+ 0.056892029941082,
6
+ 0.05952773615717888,
7
+ 0.04445318505167961,
8
+ 0.14803488552570343,
9
+ 0.05987276881933212,
10
+ 0.09482742846012115,
11
+ 0.1063532754778862,
12
+ 0.03459411859512329,
13
+ 0.1619667112827301,
14
+ 0.03337251394987106,
15
+ 0.1561996191740036,
16
+ 0.22277751564979553,
17
+ 0.11728870868682861,
18
+ 0.21592633426189423,
19
+ 0.1259865015745163,
20
+ 0.020165592432022095,
21
+ 0.06431867927312851,
22
+ 0.11951536685228348,
23
+ 0.037470925599336624,
24
+ 0.06852785497903824,
25
+ 0.08949869126081467,
26
+ 0.039852648973464966,
27
+ 0.04039335995912552,
28
+ 0.06355886906385422,
29
+ 0.0924481749534607,
30
+ 0.03228127211332321,
31
+ 0.04314116761088371,
32
+ 0.12787184119224548,
33
+ 0.0684284195303917,
34
+ 0.1350363940000534,
35
+ 0.17442438006401062,
36
+ 0.11218706518411636,
37
+ 0.10577476769685745,
38
+ 0.11955694854259491,
39
+ 0.1282026618719101,
40
+ 0.0584060400724411,
41
+ 0.09495127946138382,
42
+ 0.04437434300780296,
43
+ 0.06861383467912674,
44
+ 0.0880039781332016,
45
+ 0.10097548365592957,
46
+ 0.09876112639904022,
47
+ 0.13796661794185638,
48
+ 0.10605544596910477,
49
+ 0.04120873659849167,
50
+ 0.14327996969223022,
51
+ 0.1641949862241745,
52
+ 0.15481260418891907,
53
+ 0.08846719563007355,
54
+ 0.07893561571836472,
55
+ 0.09644895792007446,
56
+ 0.12810666859149933,
57
+ 0.04870922118425369,
58
+ 0.07056593894958496,
59
+ 0.17310068011283875,
60
+ 0.05604520067572594,
61
+ 0.1846081018447876,
62
+ 0.14437757432460785,
63
+ 0.2121194452047348,
64
+ 0.05265621095895767,
65
+ 0.11583056300878525,
66
+ 0.06436533480882645,
67
+ 0.03778358921408653,
68
+ 0.12737217545509338,
69
+ 0.12227239459753036,
70
+ 0.15458042919635773,
71
+ 0.011597455479204655,
72
+ 0.06736740469932556,
73
+ 0.09075843542814255,
74
+ 0.1894134283065796,
75
+ 0.08048037439584732,
76
+ 0.031064040958881378,
77
+ 0.16268721222877502,
78
+ 0.1013776957988739,
79
+ 0.14728236198425293,
80
+ 0.16232165694236755,
81
+ 0.07867415249347687,
82
+ 0.04913463816046715,
83
+ 0.08754217624664307,
84
+ 0.15876245498657227,
85
+ 0.03275766968727112
86
+ ],
87
+ [
88
+ 0.14829625189304352,
89
+ 0.15512493252754211,
90
+ 0.03914814069867134,
91
+ 0.06555774062871933,
92
+ 0.05990465357899666,
93
+ 0.03295810520648956,
94
+ 0.08766032010316849,
95
+ 0.10948015749454498,
96
+ 0.14929257333278656,
97
+ 0.1636131852865219,
98
+ 0.025554371997714043,
99
+ 0.14017559587955475,
100
+ 0.07128864526748657,
101
+ 0.11794980615377426,
102
+ 0.0693037286400795,
103
+ 0.19229769706726074,
104
+ 0.08946534991264343,
105
+ 0.03706657886505127,
106
+ 0.1354297250509262,
107
+ 0.05717466026544571,
108
+ 0.18424083292484283,
109
+ 0.0997103825211525,
110
+ 0.11397986114025116,
111
+ 0.19686445593833923,
112
+ 0.02208847366273403,
113
+ 0.11396732181310654,
114
+ 0.05646184831857681,
115
+ 0.021357065066695213,
116
+ 0.04905319958925247,
117
+ 0.1373707801103592,
118
+ 0.09777510166168213,
119
+ 0.16230082511901855,
120
+ 0.17212650179862976,
121
+ 0.06044118478894234,
122
+ 0.17302539944648743,
123
+ 0.1516740322113037,
124
+ 0.11480984091758728,
125
+ 0.11212828755378723,
126
+ 0.13051019608974457,
127
+ 0.1259135603904724,
128
+ 0.14487555623054504,
129
+ 0.07542016357183456,
130
+ 0.09608656913042068,
131
+ 0.06596358120441437,
132
+ 0.06123696267604828,
133
+ 0.03510856255888939,
134
+ 0.10967577248811722,
135
+ 0.09663422405719757,
136
+ 0.07583988457918167,
137
+ 0.030772387981414795,
138
+ 0.13568541407585144,
139
+ 0.11237046122550964,
140
+ 0.16585254669189453,
141
+ 0.07331005483865738,
142
+ 0.085857093334198,
143
+ 0.11858277767896652,
144
+ 0.03952164202928543,
145
+ 0.1176833063364029,
146
+ 0.11694764345884323,
147
+ 0.12619516253471375,
148
+ 0.05838320031762123,
149
+ 0.1905718594789505,
150
+ 0.08752542734146118,
151
+ 0.08380717039108276,
152
+ 0.013249458745121956,
153
+ 0.057197678834199905,
154
+ 0.15725494921207428,
155
+ 0.05597039312124252,
156
+ 0.024537773802876472,
157
+ 0.09476655721664429,
158
+ 0.16937516629695892,
159
+ 0.17330801486968994,
160
+ 0.07905454933643341,
161
+ 0.11097399145364761,
162
+ 0.023063216358423233,
163
+ 0.1047133058309555,
164
+ 0.10232297331094742,
165
+ 0.028811678290367126,
166
+ 0.14693908393383026,
167
+ 0.15418849885463715,
168
+ 0.05848316848278046
169
+ ],
170
+ [
171
+ 0.215057373046875,
172
+ 0.11154554784297943,
173
+ 0.1638101190328598,
174
+ 0.07144363969564438,
175
+ 0.06663699448108673,
176
+ 0.1272411048412323,
177
+ 0.12196137756109238,
178
+ 0.06312914937734604,
179
+ 0.12780798971652985,
180
+ 0.1240636557340622,
181
+ 0.026306195184588432,
182
+ 0.05106892064213753,
183
+ 0.037378229200839996,
184
+ 0.1381838172674179,
185
+ 0.12722338736057281,
186
+ 0.07015471160411835,
187
+ 0.13621237874031067,
188
+ 0.05486321821808815,
189
+ 0.04869812726974487,
190
+ 0.07963905483484268,
191
+ 0.07478136569261551,
192
+ 0.092708520591259,
193
+ 0.03438325226306915,
194
+ 0.17191196978092194,
195
+ 0.16001059114933014,
196
+ 0.08146941661834717,
197
+ 0.17459119856357574,
198
+ 0.06136479601264,
199
+ 0.13503938913345337,
200
+ 0.09088079631328583,
201
+ 0.03905002772808075,
202
+ 0.043284859508275986,
203
+ 0.10689138621091843,
204
+ 0.10481469333171844,
205
+ 0.11188378185033798,
206
+ 0.05188078060746193,
207
+ 0.21304020285606384,
208
+ 0.09637568891048431,
209
+ 0.06038949638605118,
210
+ 0.08546897768974304,
211
+ 0.12288887053728104,
212
+ 0.18026725947856903,
213
+ 0.11594679951667786,
214
+ 0.08643033355474472,
215
+ 0.1261996179819107,
216
+ 0.03543182089924812,
217
+ 0.04860331863164902,
218
+ 0.08311817795038223,
219
+ 0.19140763580799103,
220
+ 0.05513821914792061,
221
+ 0.07510905712842941,
222
+ 0.10570697486400604,
223
+ 0.13732792437076569,
224
+ 0.08915523439645767,
225
+ 0.15161539614200592,
226
+ 0.053832877427339554,
227
+ 0.08374471962451935,
228
+ 0.08242113143205643,
229
+ 0.06412201374769211,
230
+ 0.17947036027908325,
231
+ 0.12684565782546997,
232
+ 0.17043907940387726,
233
+ 0.08966780453920364,
234
+ 0.1529945284128189,
235
+ 0.10570265352725983,
236
+ 0.07137627899646759,
237
+ 0.04408152028918266,
238
+ 0.02605956420302391,
239
+ 0.05663192644715309,
240
+ 0.05893414095044136,
241
+ 0.11211363971233368,
242
+ 0.1751665323972702,
243
+ 0.15283453464508057,
244
+ 0.12059901654720306,
245
+ 0.18750157952308655,
246
+ 0.05327003449201584,
247
+ 0.04131291061639786,
248
+ 0.13716934621334076,
249
+ 0.08461213111877441,
250
+ 0.04506805166602135,
251
+ 0.11456884443759918
252
+ ],
253
+ [
254
+ 0.20075097680091858,
255
+ 0.0847720056772232,
256
+ 0.08828472346067429,
257
+ 0.07872723042964935,
258
+ 0.14929881691932678,
259
+ 0.08148001879453659,
260
+ 0.05817962810397148,
261
+ 0.048155128955841064,
262
+ 0.004302178043872118,
263
+ 0.18142491579055786,
264
+ 0.1269724816083908,
265
+ 0.07491837441921234,
266
+ 0.14996011555194855,
267
+ 0.09336312860250473,
268
+ 0.04513074457645416,
269
+ 0.036855440586805344,
270
+ 0.024683328345417976,
271
+ 0.11695119738578796,
272
+ 0.07910124957561493,
273
+ 0.09920864552259445,
274
+ 0.08432159572839737,
275
+ 0.14141325652599335,
276
+ 0.10799527168273926,
277
+ 0.021080750972032547,
278
+ 0.050083450973033905,
279
+ 0.1501615345478058,
280
+ 0.04766415059566498,
281
+ 0.06608851999044418,
282
+ 0.08840975165367126,
283
+ 0.03826615959405899,
284
+ 0.07320788502693176,
285
+ 0.11715981364250183,
286
+ 0.15067964792251587,
287
+ 0.05530809611082077,
288
+ 0.052419617772102356,
289
+ 0.021477939561009407,
290
+ 0.14402103424072266,
291
+ 0.08832044899463654,
292
+ 0.0865321159362793,
293
+ 0.04926703870296478,
294
+ 0.11746454238891602,
295
+ 0.056136149913072586,
296
+ 0.21148429811000824,
297
+ 0.19227662682533264,
298
+ 0.07879449427127838,
299
+ 0.2525883615016937,
300
+ 0.14811086654663086,
301
+ 0.13561144471168518,
302
+ 0.09265180677175522,
303
+ 0.07356728613376617,
304
+ 0.141165629029274,
305
+ 0.131316140294075,
306
+ 0.041908953338861465,
307
+ 0.0820860043168068,
308
+ 0.11832208186388016,
309
+ 0.0882294774055481,
310
+ 0.09874981641769409,
311
+ 0.09538484364748001,
312
+ 0.09845920652151108,
313
+ 0.1589694619178772,
314
+ 0.07163756340742111,
315
+ 0.06895830482244492,
316
+ 0.060422301292419434,
317
+ 0.04507890343666077,
318
+ 0.2034529447555542,
319
+ 0.10601270198822021,
320
+ 0.15184739232063293,
321
+ 0.18772201240062714,
322
+ 0.10835809260606766,
323
+ 0.09588900953531265,
324
+ 0.1620982140302658,
325
+ 0.06641475111246109,
326
+ 0.08308545500040054,
327
+ 0.12341884523630142,
328
+ 0.19160671532154083,
329
+ 0.06719950586557388,
330
+ 0.07942123711109161,
331
+ 0.08253579586744308,
332
+ 0.0551418736577034,
333
+ 0.04089301824569702,
334
+ 0.11816096305847168
335
+ ],
336
+ [
337
+ 0.01429471094161272,
338
+ 0.06752955168485641,
339
+ 0.16355788707733154,
340
+ 0.07550300657749176,
341
+ 0.15386976301670074,
342
+ 0.13879498839378357,
343
+ 0.013522189110517502,
344
+ 0.1251963973045349,
345
+ 0.060235440731048584,
346
+ 0.11573512852191925,
347
+ 0.05353183299303055,
348
+ 0.029619382694363594,
349
+ 0.12253239750862122,
350
+ 0.034431349486112595,
351
+ 0.16287875175476074,
352
+ 0.11938271671533585,
353
+ 0.09182711690664291,
354
+ 0.12737007439136505,
355
+ 0.09902498871088028,
356
+ 0.23856598138809204,
357
+ 0.1498088389635086,
358
+ 0.10701476037502289,
359
+ 0.05373286083340645,
360
+ 0.15037377178668976,
361
+ 0.11987368762493134,
362
+ 0.11199163645505905,
363
+ 0.0661640390753746,
364
+ 0.0841449573636055,
365
+ 0.021293390542268753,
366
+ 0.09777210652828217,
367
+ 0.14007271826267242,
368
+ 0.12218482047319412,
369
+ 0.06639350205659866,
370
+ 0.046787846833467484,
371
+ 0.04002770036458969,
372
+ 0.07314414530992508,
373
+ 0.03443494439125061,
374
+ 0.1434900164604187,
375
+ 0.12145433574914932,
376
+ 0.09363097697496414,
377
+ 0.12811653316020966,
378
+ 0.08789440244436264,
379
+ 0.193766787648201,
380
+ 0.08214998245239258,
381
+ 0.12373560667037964,
382
+ 0.03680651634931564,
383
+ 0.09820695221424103,
384
+ 0.0042859409004449844,
385
+ 0.11145763844251633,
386
+ 0.10851626843214035,
387
+ 0.09544067084789276,
388
+ 0.05720015987753868,
389
+ 0.07819048315286636,
390
+ 0.03964831680059433,
391
+ 0.09145601093769073,
392
+ 0.06766696274280548,
393
+ 0.11953655630350113,
394
+ 0.021326741203665733,
395
+ 0.126051664352417,
396
+ 0.017847510054707527,
397
+ 0.08942970633506775,
398
+ 0.08930236846208572,
399
+ 0.1566222906112671,
400
+ 0.1951378583908081,
401
+ 0.1033610850572586,
402
+ 0.08082937449216843,
403
+ 0.021365605294704437,
404
+ 0.07013069093227386,
405
+ 0.02733847126364708,
406
+ 0.10711563378572464,
407
+ 0.24184322357177734,
408
+ 0.10268162190914154,
409
+ 0.0864168182015419,
410
+ 0.14098897576332092,
411
+ 0.1871117502450943,
412
+ 0.17228354513645172,
413
+ 0.08754562586545944,
414
+ 0.0946442037820816,
415
+ 0.157916858792305,
416
+ 0.06993955373764038,
417
+ 0.17279551923274994
418
+ ]
419
+ ],
420
+ "entropy": 0.049563340842723846
421
+ }
savant_rrf_model.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:9201822cda404262b9c050ff2a638a01cb7f5b65a89bb085764002987620e36e
3
+ size 103585
scheduler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e1b563dc1a68072e34cb2921b1281f6e4681ac6ed493f4d0b61fa0b6eca73deb
3
+ size 1465
trainer_state.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_global_step": null,
3
+ "best_metric": null,
4
+ "best_model_checkpoint": null,
5
+ "epoch": 1.0,
6
+ "eval_steps": 500,
7
+ "global_step": 63,
8
+ "is_hyper_param_search": false,
9
+ "is_local_process_zero": true,
10
+ "is_world_process_zero": true,
11
+ "log_history": [
12
+ {
13
+ "epoch": 0.31746031746031744,
14
+ "grad_norm": 0.43154916167259216,
15
+ "learning_rate": 2.095238095238095e-05,
16
+ "loss": 0.1419,
17
+ "step": 20
18
+ },
19
+ {
20
+ "epoch": 0.6349206349206349,
21
+ "grad_norm": 0.08845952898263931,
22
+ "learning_rate": 1.1428571428571429e-05,
23
+ "loss": 0.0067,
24
+ "step": 40
25
+ },
26
+ {
27
+ "epoch": 0.9523809523809523,
28
+ "grad_norm": 0.061147306114435196,
29
+ "learning_rate": 1.9047619047619047e-06,
30
+ "loss": 0.0028,
31
+ "step": 60
32
+ }
33
+ ],
34
+ "logging_steps": 20,
35
+ "max_steps": 63,
36
+ "num_input_tokens_seen": 0,
37
+ "num_train_epochs": 1,
38
+ "save_steps": 500,
39
+ "stateful_callbacks": {
40
+ "TrainerControl": {
41
+ "args": {
42
+ "should_epoch_stop": false,
43
+ "should_evaluate": false,
44
+ "should_log": false,
45
+ "should_save": true,
46
+ "should_training_stop": true
47
+ },
48
+ "attributes": {}
49
+ }
50
+ },
51
+ "total_flos": 65777763840000.0,
52
+ "train_batch_size": 4,
53
+ "trial_name": null,
54
+ "trial_params": null
55
+ }
training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0ce2259296581ee2cae5d76a38da0408566b6f0dd78b14cee8f74358de9306dc
3
+ size 5841