Próbuję zastosować głęboką naukę dla problemu klasyfikacji binarnej z wysokim poziomem niezbilansowania klas pomiędzy klasami docelowymi (500k, 31K). Chcę napisać niestandardową funkcję utraty, która powinna wyglądać następująco: minimize (100 - ((predicted_smallerclass)/(total_smallerclass)) * 100)Funkcja utraty klasy niewyważonego klasyfikatora binarnego w przepływie Tensor
Doceń wszelkie wskazówki, w jaki sposób mogę zbudować tę logikę.
Mam do czynienia z tym samym problemem, ale próbując zrozumieć powyższy kod, nie rozumiem "\ sum_" - czy możesz to wyjaśnić? Wydaje się, że to kod lateksu; działa to w Pythonie? –
Ale w rzeczywistości najlepszym podejściem jest budowanie zrównoważonych mini-partii !! –
@Ron: równanie mówi tylko, że różni się od: pomnóż logit przez masę klasy vs pomnóż odległość (entropia krzyżowa) przez wagi. Kod u dołu działa w języku Python. Ale ogólnie rzecz biorąc, wystarczy zrównoważyć każdą miksturę, a otrzymasz lepszy model! –