| | --- |
| | library_name: keras |
| | --- |
| | |
| | Модель для распознования цифр, которая выдает результат %2 от чисел, натренерованна на наборе данных mnist |
| |
|
| |  |
| |
|
| | Общее количество обучаемых параметров НС мы узнаем с помощью .summary и их число равно 209 826 |
| | .summary выводит сводку модели машинного обучения, созданной в рамках проекта. Он позволяет увидеть количество слоев, количество нейронов в каждом слое, |
| | функции активации и другие параметры модели. Это помогает определить, какие данные будут входить в модель, какие выходные данные будут получены, |
| | какие параметры будут использоваться и какие функции потерь будут использоваться при обучении модели. |
| |
|
| |  |
| |
|
| | В данной работе я использую функцию потерь categorical_crossentropy, которая используется для классификации с несколькими классами. |
| | В качестве оптимизатора я использую adam, который является одним из наиболее популярных оптимизаторов для обучения нейронных сетей. |
| | |
| | Так как в данной работе я использую Mnist, он содержит 70 000 рукописных чисел, при чем 10 000 это тестовая выборка, 60 000 тренировочная, но в ней 20% являются валидационными |
| | поэтому тестовая 10 000, валидационная 12 000 и тренировочная 48 000 данных |
| | |
| | Ниже прикреплены картинки который показывают loss, accuracy на всех трех датасетах |
| | |
| | Точность accuracy для валидационной и обучающей |
| |  |
| | |
| | Loss для валидационной и обучающей |
| |  |
| | |
| | accuracy и loss для тестовой выборки |
| |  |
| | |