Willenberg commited on
Commit
7e5decb
·
1 Parent(s): ac5731e

Updated training

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ weights/weights.data-00000-of-00001 filter=lfs diff=lfs merge=lfs -text
app.py CHANGED
@@ -5,8 +5,8 @@ from tensorflow import keras
5
 
6
  model = keras.models.Sequential([
7
  keras.layers.Flatten(input_shape=(28, 28)), # Diese Schicht nimmt unser 2D-Bild und verwandelt es in ein 1D-Array
8
- keras.layers.Dense(64, activation='relu'), # Als Nächstes kommen zwei Schichten mit 64 künstlichen Neuronen. Als Funktion wählen wir 'relu' f(x) = max(0,x)
9
- keras.layers.Dense(64, activation='relu'),
10
  keras.layers.Dense(10, activation='softmax') # Die letzte Schicht besteht aus 10 Neuronen, die für unsere 10 Zahlen stehen. Die 'softmax' Funktion wandelt die Ergebnisse der vorherigen Schicht in Wahrscheinlichkeiten
11
  ])
12
 
 
5
 
6
  model = keras.models.Sequential([
7
  keras.layers.Flatten(input_shape=(28, 28)), # Diese Schicht nimmt unser 2D-Bild und verwandelt es in ein 1D-Array
8
+ keras.layers.Dense(512, activation='relu'), # Als Nächstes kommen zwei Schichten mit 512 künstlichen Neuronen. Als Funktion wählen wir 'relu' f(x) = max(0,x)
9
+ keras.layers.Dense(512, activation='relu'),
10
  keras.layers.Dense(10, activation='softmax') # Die letzte Schicht besteht aus 10 Neuronen, die für unsere 10 Zahlen stehen. Die 'softmax' Funktion wandelt die Ergebnisse der vorherigen Schicht in Wahrscheinlichkeiten
11
  ])
12
 
training.py CHANGED
@@ -7,8 +7,8 @@ x_test = x_test / 255.0
7
 
8
  model = keras.models.Sequential([
9
  keras.layers.Flatten(input_shape=(28, 28)), # Diese Schicht nimmt unser 2D-Bild und verwandelt es in ein 1D-Array
10
- keras.layers.Dense(64, activation='relu'), # Als Nächstes kommen zwei Schichten mit 64 künstlichen Neuronen. Als Funktion wählen wir 'relu' f(x) = max(0,x)
11
- keras.layers.Dense(64, activation='relu'),
12
  keras.layers.Dense(10, activation='softmax') # Die letzte Schicht besteht aus 10 Neuronen, die für unsere 10 Zahlen stehen. Die 'softmax' Funktion wandelt die Ergebnisse der vorherigen Schicht in Wahrscheinlichkeiten
13
  ])
14
 
@@ -16,6 +16,6 @@ model.compile(optimizer=keras.optimizers.Adam(0.001),
16
  loss=keras.losses.SparseCategoricalCrossentropy(from_logits=True),
17
  metrics=[keras.metrics.SparseCategoricalAccuracy()])
18
 
19
- model.fit(x_train, y_train, validation_data=(x_test, y_test), epochs=3)
20
 
21
  model.save_weights('./weights/weights')
 
7
 
8
  model = keras.models.Sequential([
9
  keras.layers.Flatten(input_shape=(28, 28)), # Diese Schicht nimmt unser 2D-Bild und verwandelt es in ein 1D-Array
10
+ keras.layers.Dense(512, activation='relu'), # Als Nächstes kommen zwei Schichten mit 512 künstlichen Neuronen. Als Funktion wählen wir 'relu' f(x) = max(0,x)
11
+ keras.layers.Dense(512, activation='relu'),
12
  keras.layers.Dense(10, activation='softmax') # Die letzte Schicht besteht aus 10 Neuronen, die für unsere 10 Zahlen stehen. Die 'softmax' Funktion wandelt die Ergebnisse der vorherigen Schicht in Wahrscheinlichkeiten
13
  ])
14
 
 
16
  loss=keras.losses.SparseCategoricalCrossentropy(from_logits=True),
17
  metrics=[keras.metrics.SparseCategoricalAccuracy()])
18
 
19
+ model.fit(x_train, y_train, validation_data=(x_test, y_test), epochs=6)
20
 
21
  model.save_weights('./weights/weights')
weights/weights.data-00000-of-00001 CHANGED
Binary files a/weights/weights.data-00000-of-00001 and b/weights/weights.data-00000-of-00001 differ
 
weights/weights.index CHANGED
Binary files a/weights/weights.index and b/weights/weights.index differ