Reading https://github.com/tensorflow/models/blob/master/tutorials/image/cifar10/cifar10_multi_gpu_train.py dla funkcji average_gradients
następujący komentarz jest: Note that this function provides a synchronization point across all towers.
Czy funkcja average_gradients
blokowania połączeń i co rozumie się przez synchronization point
?Tensorflow punkt synchronizacji cifar
Zakładam, że jest to wywołanie blokujące, ponieważ aby obliczyć średnią gradientów, każdy gradient musi zostać obliczony indywidualnie? Ale gdzie jest kod blokujący, który czeka na wszystkie indywidualne obliczenia gradientowe?