To, o co pytasz, dotyczy bezobsługowej nauki i głębokiego uczenia się.
Uczenie się cech jest jedyną nienadzorowaną metodą, jaką mogę sobie wyobrazić w odniesieniu do NN lub jej niedawnego wariantu. (Wariant o nazwie mieszanka RBM jest analogiczny do mieszaniny gaussów, ale można zbudować wiele modeli na podstawie dwóch). Ale w zasadzie Dwa modele, które znam to RBM (ograniczone maszyny typu boltzman) i Autoencodery.
Autohenodery (opcjonalnie nieliczne aktywacje mogą być zakodowane w funkcji optymalizacji) to tylko sprzężone sieci neuronowe, które dostrajają swoje wagi w taki sposób, że wyjście jest zrekonstruowanym wejściem. Można użyć wielu ukrytych warstw, ale inicjalizacja wagi używa chciwego treningu warstwowego dla lepszego punktu startowego. Aby odpowiedzieć na pytanie, funkcja docelowa zostanie wprowadzona sama.
RBM to sieci stochastyczne interpretowane zwykle jako model graficzny z ograniczeniami połączeń. W tym ustawieniu nie ma warstwy wyjściowej, a połączenie między warstwą wejściową a warstwą ukrytą jest dwukierunkowe jak nieokreślony model graficzny. Czego się stara się nauczyć, to rozkład na wejściach (zmienne obserwowane i nieobserwowane). Tutaj również twoja odpowiedź będzie wkładem jest celem.
Mieszanka RBM (analogiczna do mieszanki gaussów) może być używana do miękkiego grupowania lub KRBM (analogiczny do K-średnich) może być używany do grupowania twardego. Co w efekcie wydaje się uczeniem wielu nieliniowych podprzestrzeni.
http://deeplearning.net/tutorial/rbm.html
http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial
Tak, myślę, że następne pytanie, które mam, to jest to ... Czy możemy użyć EM do szkolenia nadzorowanej sieci neuronowej? Jeśli tak, dlaczego wolelibyśmy BackPropagation ponad EM? – Shatu