gabrycina commited on
Commit
a181709
·
verified ·
1 Parent(s): 74be96c

Upload folder using huggingface_hub

Browse files
Files changed (4) hide show
  1. README.md +15 -0
  2. best_model.pth +3 -0
  3. config.json +8 -0
  4. metrics.json +208 -0
README.md ADDED
@@ -0,0 +1,15 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ # EEG to MEG Prediction Model
3
+
4
+ This model was trained to predict MEG signals from EEG recordings.
5
+
6
+ ## Training Configuration
7
+ - Dataset: gabrycina/eeg2meg-tiny
8
+ - Batch Size: 32
9
+ - Learning Rate: 0.0001
10
+ - Device: mps
11
+ - Training Date: 20250104_184834
12
+
13
+ ## Performance
14
+ - Best Validation Loss: 0.166563
15
+ - Best Epoch: 100
best_model.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:2b697eaba10d249564561540aa39443f993e09aa4733e9b9103bcc464838f960
3
+ size 56297014
config.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "repository_id": "gabrycina/eeg2meg-tiny",
3
+ "batch_size": 32,
4
+ "num_epochs": 100,
5
+ "learning_rate": 0.0001,
6
+ "device": "mps",
7
+ "timestamp": "20250104_184834"
8
+ }
metrics.json ADDED
@@ -0,0 +1,208 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "train_losses": [
3
+ 0.5830281972885132,
4
+ 0.4379337430000305,
5
+ 0.35303473472595215,
6
+ 0.2991771996021271,
7
+ 0.26284268498420715,
8
+ 0.23944523930549622,
9
+ 0.22291284799575806,
10
+ 0.21095529198646545,
11
+ 0.20198865234851837,
12
+ 0.1951841562986374,
13
+ 0.1899258941411972,
14
+ 0.18568095564842224,
15
+ 0.18216128647327423,
16
+ 0.17918431758880615,
17
+ 0.1766282171010971,
18
+ 0.1744052767753601,
19
+ 0.17244285345077515,
20
+ 0.17068837583065033,
21
+ 0.1691243052482605,
22
+ 0.16775813698768616,
23
+ 0.16656836867332458,
24
+ 0.16551971435546875,
25
+ 0.16458189487457275,
26
+ 0.16375023126602173,
27
+ 0.16303186118602753,
28
+ 0.16242317855358124,
29
+ 0.16190014779567719,
30
+ 0.1614329218864441,
31
+ 0.16100405156612396,
32
+ 0.16061198711395264,
33
+ 0.16026200354099274,
34
+ 0.1599571704864502,
35
+ 0.15969157218933105,
36
+ 0.15945498645305634,
37
+ 0.15923674404621124,
38
+ 0.15903016924858093,
39
+ 0.15883389115333557,
40
+ 0.15865062177181244,
41
+ 0.15848270058631897,
42
+ 0.15833120048046112,
43
+ 0.15819500386714935,
44
+ 0.15807253122329712,
45
+ 0.1579621136188507,
46
+ 0.15786176919937134,
47
+ 0.15776875615119934,
48
+ 0.15768049657344818,
49
+ 0.15759611129760742,
50
+ 0.15751619637012482,
51
+ 0.15744167566299438,
52
+ 0.1573726236820221,
53
+ 0.15730805695056915,
54
+ 0.1572466641664505,
55
+ 0.15718770027160645,
56
+ 0.15713083744049072,
57
+ 0.15707606077194214,
58
+ 0.1570231318473816,
59
+ 0.15697155892848969,
60
+ 0.15692052245140076,
61
+ 0.15686951577663422,
62
+ 0.15681816637516022,
63
+ 0.1567661464214325,
64
+ 0.15671305358409882,
65
+ 0.1566583216190338,
66
+ 0.15660130977630615,
67
+ 0.15654116868972778,
68
+ 0.15647681057453156,
69
+ 0.15640701353549957,
70
+ 0.15633046627044678,
71
+ 0.15624551475048065,
72
+ 0.1561497449874878,
73
+ 0.15603992342948914,
74
+ 0.15591183304786682,
75
+ 0.15575937926769257,
76
+ 0.1555730253458023,
77
+ 0.1553381383419037,
78
+ 0.15505431592464447,
79
+ 0.15471093356609344,
80
+ 0.15428730845451355,
81
+ 0.15379789471626282,
82
+ 0.15327149629592896,
83
+ 0.15269336104393005,
84
+ 0.15197916328907013,
85
+ 0.15113338828086853,
86
+ 0.15018542110919952,
87
+ 0.14908911287784576,
88
+ 0.14784196019172668,
89
+ 0.14648233354091644,
90
+ 0.14507165551185608,
91
+ 0.143690824508667,
92
+ 0.14229804277420044,
93
+ 0.14092038571834564,
94
+ 0.13951298594474792,
95
+ 0.13812172412872314,
96
+ 0.13673223555088043,
97
+ 0.13535749912261963,
98
+ 0.13404345512390137,
99
+ 0.13282622396945953,
100
+ 0.13166658580303192,
101
+ 0.1306070238351822,
102
+ 0.12963762879371643
103
+ ],
104
+ "val_losses": [
105
+ 0.18754221498966217,
106
+ 0.1878098100423813,
107
+ 0.1882069706916809,
108
+ 0.18865254521369934,
109
+ 0.1891276091337204,
110
+ 0.18960045278072357,
111
+ 0.19006329774856567,
112
+ 0.19052182137966156,
113
+ 0.19098249077796936,
114
+ 0.19143730401992798,
115
+ 0.1918884664773941,
116
+ 0.1923304945230484,
117
+ 0.19274792075157166,
118
+ 0.19313135743141174,
119
+ 0.19348053634166718,
120
+ 0.19378969073295593,
121
+ 0.19405819475650787,
122
+ 0.19427087903022766,
123
+ 0.19442135095596313,
124
+ 0.19451084733009338,
125
+ 0.19455760717391968,
126
+ 0.1945662647485733,
127
+ 0.1945428103208542,
128
+ 0.1944851577281952,
129
+ 0.19441433250904083,
130
+ 0.19435344636440277,
131
+ 0.19429334998130798,
132
+ 0.19423216581344604,
133
+ 0.19417400658130646,
134
+ 0.1941206306219101,
135
+ 0.1940767467021942,
136
+ 0.19403590261936188,
137
+ 0.19398614764213562,
138
+ 0.19391779601573944,
139
+ 0.19383880496025085,
140
+ 0.19375385344028473,
141
+ 0.19366218149662018,
142
+ 0.19356855750083923,
143
+ 0.19347944855690002,
144
+ 0.19338737428188324,
145
+ 0.19329068064689636,
146
+ 0.19318586587905884,
147
+ 0.1930726170539856,
148
+ 0.19295823574066162,
149
+ 0.19284287095069885,
150
+ 0.19273097813129425,
151
+ 0.19262360036373138,
152
+ 0.19252152740955353,
153
+ 0.19242407381534576,
154
+ 0.19233034551143646,
155
+ 0.19224052131175995,
156
+ 0.1921534538269043,
157
+ 0.19207024574279785,
158
+ 0.19199268519878387,
159
+ 0.191922128200531,
160
+ 0.1918611377477646,
161
+ 0.1918095499277115,
162
+ 0.191767156124115,
163
+ 0.19173018634319305,
164
+ 0.19169574975967407,
165
+ 0.19166356325149536,
166
+ 0.19163286685943604,
167
+ 0.19160205125808716,
168
+ 0.19156938791275024,
169
+ 0.19153369963169098,
170
+ 0.1914953887462616,
171
+ 0.19145505130290985,
172
+ 0.19141462445259094,
173
+ 0.1913755089044571,
174
+ 0.19133895635604858,
175
+ 0.19130481779575348,
176
+ 0.191273033618927,
177
+ 0.19124671816825867,
178
+ 0.19123347103595734,
179
+ 0.1912316232919693,
180
+ 0.1912107765674591,
181
+ 0.19114622473716736,
182
+ 0.1910923570394516,
183
+ 0.19106736779212952,
184
+ 0.19090144336223602,
185
+ 0.19050434231758118,
186
+ 0.18992651998996735,
187
+ 0.18926772475242615,
188
+ 0.18854667246341705,
189
+ 0.1877654641866684,
190
+ 0.1869177222251892,
191
+ 0.18596912920475006,
192
+ 0.18492525815963745,
193
+ 0.1836531162261963,
194
+ 0.1820530742406845,
195
+ 0.18019172549247742,
196
+ 0.1785041242837906,
197
+ 0.17691537737846375,
198
+ 0.17529572546482086,
199
+ 0.17359544336795807,
200
+ 0.1719386726617813,
201
+ 0.1702776551246643,
202
+ 0.1688225120306015,
203
+ 0.16760993003845215,
204
+ 0.16656319797039032
205
+ ],
206
+ "best_epoch": 100,
207
+ "best_val_loss": 0.16656319797039032
208
+ }