Pracuję nad replikacją sieci neuronowej. Próbuję zrozumieć, jak działają standardowe typy warstw. W szczególności mam problem ze znalezieniem opisu w dowolnym miejscu, w jaki sposób zachowują się warstwy cross-channel normalizacji na back-pass.Algorytm propagacji wstecznej za pomocą międzykanałowej lokalnej warstwy normalizacyjnej odpowiedzi (LRN)
Ponieważ warstwa normalizacja nie posiada parametrów, mogę odgadnąć dwie możliwe opcje:
gradientów błędu z kolejnym (tj później) warstwy są przekazywane do tyłu, nie robiąc nic do nich.
Gradienty błędów są znormalizowane w ten sam sposób, w jaki aktywacje są znormalizowane dla kanałów w przekazywaniu do przodu.
Nie mogę wymyślić powodu, dla którego zrobiłbyś jeden nad drugim w oparciu o jakąkolwiek intuicję, dlatego chciałbym w tym pomóc.
Edit1:
warstwa jest standardowym warstwa caffe, jak opisano tutaj http://caffe.berkeleyvision.org/tutorial/layers.html (patrz 'Lokalna odpowiedź normalizacji (LRN)').
realizacja warstwy w piłkę z przodu jest opisany w rozdziale 3.3 papieru alexNet: http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
EDIT2:
Wierzę, że do przodu i do tyłu algorytmy karnetów są opisane zarówno w bibliotece Torch tutaj: https://github.com/soumith/cudnn.torch/blob/master/SpatialCrossMapLRN.lua
aw bibliotece Caffe tutaj: https://github.com/BVLC/caffe/blob/master/src/caffe/layers/lrn_layer.cpp
Proszę może ktoś, kto zna albo/oba te przekładają metoda etapu przejścia w tył na zwykły angielski?
Czy można utworzyć łącze do odwołania do "warstw normalizacji międzykanałowej"? Google ujawnia tylko artykuł, który wydaje się również mówić o wielu innych rzeczach. Wygląda na to, że nie jest to standardowy typ warstwy. – IVlad
@IVlad Dodano linki. – user1488804