2017-04-30 60 views
5

Czy istnieje kanoniczny sposób na zachowanie stanu LSTM itp. Przy obsłudze Tensorflow?Tensorflow Doręczanie - Stateful LSTM

Bezpośrednio za pomocą interfejsu API Tensorflow jest to proste - ale nie mam pewności, jak najlepiej osiągnąć trwający stan LSTM między połączeniami po wyeksportowaniu modelu do Serwowania.

Czy są jakieś przykłady, które spełniają powyższe? Próbki w ramach repo są bardzo proste.

Odpowiedz

3

Martin Wicke na liście TF do korespondencji:..

„Nie ma dobra integracja dla stanowych modeli na serwerze modelu jeszcze Jak można zauważyć, że w zasadzie zakłada modele są czyste funkcje Pracujemy nad tym, i powinieneś zobaczyć, że ta funkcjonalność pojawia się w końcu, ale jest zbyt daleko, by obiecywać czas. Więc w międzyczasie możesz napisać proste opakowanie, które utrzymuje stan na serwerze (i przypisuje jakiś identyfikator sesji, który jest przekazywany w żądaniach), lub możesz napisać własny serwer, który utrzymuje stan sesji TensorFlow (i podobnie zwraca część identyfikatora sesji), ten drugi jest bardziej wydajny. Oba będą wymagały pewnego rodzaju logiki zbierania śmieci/sesji.

+0

Link do wątku listy dyskusyjnej: https://groups.google.com/a/tensorflow.org/forum/#!topic/discuss/00tipdqxRZk – Russell