Funkcja strata jest jak jesteś karanie swoje wyjście.
Poniższy przykład dotyczy nadzorowanego ustawienia, tj. Gdy wiadomo, że prawidłowy wynik powinien być. Chociaż funkcje utraty mogą być stosowane nawet w nienadzorowanych ustawieniach.
Załóżmy, że masz model, który zawsze prognozuje 1. Podobnie wartość skalarna 1.
Można mieć wiele funkcji strat stosowane do tego modelu. L2 to odległość euklidesowa.
Jeśli przekażę pewną wartość, powiedz 2 i chcę, aby mój model nauczył się funkcji x ** 2, wtedy wynik powinien wynosić 4 (ponieważ 2 * 2 = 4). Jeśli zastosujemy stratę L2, to obliczymy ją jako || 4 - 1 ||^2 = 9.
Możemy również uzupełnić naszą własną funkcję straty. Można powiedzieć, że funkcja straty jest zawsze 10. Tak więc niezależnie od tego, co osiągnie nasz model, strata będzie stała.
Dlaczego zależy nam na funkcjach związanych z utratą? Cóż, oni określają, jak słabo model zrobił i w kontekście backpropagation i sieci neuronowe. Określają również gradienty z ostatniej warstwy, która ma być propagowana, aby model mógł się uczyć.
Jak sugerują inne komentarze, powinienem zacząć od podstawowego materiału. Oto dobry link do rozpoczęcia: http://neuralnetworksanddeeplearning.com/
Zalecam raczej rozpoczęcie czytania książki (podstawowej) uczenia maszynowego zamiast "Jak korzystać z tensorflow". Tensorflow nie może zrobić magii, jeśli nie wiesz, co robisz. –
Czy sugerujesz jakieś materiały online, które mogę śledzić? – Federico
Prawdopodobnie najlepszy [kurs uczenia maszynowego] (https://www.coursera.org/learn/machine-learning) do naśladowania. Lub inne książki Google od Andrew Ng, takie jak my [this one] (http://www.mlyearning.org). –