Nie mogę dopasować czasów wnioskowania zgłoszonych przez Google w przypadku modeli opublikowanych w ich wersjach model zoo. W szczególności wypróbowuję ich model faster_rcnn_resnet101_coco
, w którym raportowany czas wnioskowania to 106ms
na GPU Titan X.Interfejs API wykrywania obiektów Tensorflow ma wolny czas wnioskowania z tensorflow obsługujących
Mój system obsługujący używa TF 1.4 działającego w kontenerze zbudowanym na bazie Dockerfile wydanym przez Google. Mój klient jest wzorowany na modelu inception client, który został również wydany przez Google.
Używam Ubuntu 14.04, TF 1.4 z 1 Titanem X. Mój całkowity czas interferencji jest 3 razy gorszy niż raportowany przez Google ~ 330ms. Wykonanie tensor proto trwa ~ 150ms i Predict trwa ~ 180ms. Moje saved_model.pb
pochodzi bezpośrednio z pliku tar pobranego z modelu zoo. Czy jest coś, czego mi brakuje? Jakie kroki mogę podjąć, aby zmniejszyć czas wnioskowania?
Nie sądzę, że to jest problem, używam TF 1.4, który jest tą samą wersją, na której oparte są eksportowane modele. Z modelu zoo: 'Nasze zamrożone wykresy wnioskowania są generowane przy użyciu wersji Tensorflow wersji 1.4.1 –