2016-02-22 2 views

Odpowiedz

16

Wartość keep_prob służy do kontroli dropout rate używanej podczas treningu sieci neuronowej. Zasadniczo oznacza to, że każde połączenie między warstwami (w tym przypadku między ostatnią gęsto połączoną warstwą a warstwą odczytu) będzie używane tylko z prawdopodobieństwem 0.5 podczas treningu. To zmniejsza przeuczenie. Aby uzyskać więcej informacji na temat teorii rezygnacji, można zobaczyć oryginalny paper by Srivastava et al. Aby zobaczyć, jak go używać w TensorFlow, zobacz dokumentację operatora tf.nn.dropout().

Wartość jest podawana za pomocą symbolu zastępczego, aby można było użyć tego samego wykresu do szkolenia (z keep_prob = 0.5) i oceny (z keep_prob = 1.0). Alternatywnym sposobem radzenia sobie z tymi przypadkami jest budowanie różnych wykresów dla szkoleń i ewaluacji: popatrz na użycie przerywania w bieżącym modelu convolutional.py dla przykładu.

+0

Dziękuję bardzo :-) –