el254 commited on
Commit
d61f25e
·
1 Parent(s): 259b27b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +23 -12
README.md CHANGED
@@ -1,24 +1,35 @@
1
  ---
2
  library_name: keras
3
  --
4
- Задача НС
 
 
 
5
  Модель генерирует цифру похожую на цифру из датасета mnist
6
 
7
- Изображение послойной архитектуры:
8
- Изображение послойной архитектуры
9
 
10
- Общее количество обучаемых параметров
 
 
11
  Обучемых параметров: 54,160
12
 
13
- Используемые алгоритмы оптимизации и функция ошибки
14
- Алгоритм оптимизации - adam Функция ошибки - categorical_crossentropy
 
 
 
 
 
 
15
 
16
- Размеры тренировочного, валидационного и тестового датасетов:
17
- Тренировочный: 60000 Тестовый: 10000 Валидационный(тестовый): 10000
18
 
19
- Результаты обучения модели: loss и accuracy на всех трёх датасетах:
20
- Train Loss: 2511.731201171875 Train Accuracy: 0.7256483435630798
21
 
22
- Test Loss: 2534.3447265625 Test Accuracy: 0.7262243628501892
 
23
 
24
- Validation Loss: 2534.3447265625 Validation Accuracy: 0.7262243628501892
 
 
1
  ---
2
  library_name: keras
3
  --
4
+ # Распознавание класса цифр на датасете mnist.
5
+
6
+ # Задача НС
7
+
8
  Модель генерирует цифру похожую на цифру из датасета mnist
9
 
10
+ ## Изображение послойной архитектуры:
 
11
 
12
+ ![Изображение послойной архитектуры](./model.png)
13
+
14
+ ## Общее количество обучаемых параметров
15
  Обучемых параметров: 54,160
16
 
17
+ ## Используемые алгоритмы оптимизации и функция ошибки
18
+ Алгоритм оптимизации - `adam`
19
+ Функция ошибки - `categorical_crossentropy`
20
+
21
+ ## Размеры тренировочного, валидационного и тестового датасетов:
22
+ Тренировочный: 60000
23
+ Тестовый: 10000
24
+ Валидационный(тестовый): 10000
25
 
26
+ ## Результаты обучения модели: loss и accuracy на всех трёх датасетах:
 
27
 
28
+ Train Loss: 2511.731201171875
29
+ Train Accuracy: 0.7256483435630798
30
 
31
+ Test Loss: 2534.3447265625
32
+ Test Accuracy: 0.7262243628501892
33
 
34
+ Validation Loss: 2534.3447265625
35
+ Validation Accuracy: 0.7262243628501892