Testuję drukowane cyfry (0-9) na Convolutional Neural Network. Daje to 99+% dokładności na zestawie danych MNIST, ale gdy próbowałem go używając czcionek zainstalowanych na komputerze (Ariel, Calibri, Cambria, Cambria matematyka, Times New Roman) i trenowałem obrazy generowane przez czcionki (104 obrazy na czcionkę (Total 25 czcionek -.? 4 zdjęć na czcionki (mała różnica)) wskaźnik błędu szkolenie nie schodzi poniżej 80%, czyli dokładność 20% DlaczegoDigit Recognition on CNN
Oto "2" liczba obrazów próbki -
Zmieniłem rozmiar każdego zdjęcia 28 x 28.
Oto więcej szczegółów: -
Rozmiar danych treningu = 28 x 28 obrazów. parametry sieciowe - AS LeNet5 Architektury Network -
Input Layer -28x28
| Convolutional Layer - (Relu Activation);
| Pooling Layer - (Tanh Activation)
| Convolutional Layer - (Relu Activation)
| Local Layer(120 neurons) - (Relu)
| Fully Connected (Softmax Activation, 10 outputs)
To działa, daje dokładność + 99% na MNIST. Dlaczego tak źle z czcionkami generowanymi przez komputer? CNN może obsługiwać wiele wariancji danych.
Jaką pełną topologię używasz? Czy to oryginalny LeNet5, czy zmieniliście którąś z ukrytych warstw? Jeśli szkolisz nowy model od podstaw, przeuczenie powinno wyglądać na kolejne 99 +% skuteczności; twoje 20% sugeruje jakiś inny problem. – Prune
Tak, jest oryginalny LeNet5, warstwy są takie, jak wspomniano powyżej, działa z MNIST zestaw danych, ale nie mój zestaw danych, mój rozmiar zbioru danych wynosi 1036 zdjęć, 104 na numer. – kumar030