TensorFlow jako zbudować to dobry sposób na przechowywanie danych. Jest to na przykład używane do przechowywania danych MNIST w przykładzie:TensorFlow utworzyć zestaw danych z tablicy numpy
>>> mnist
<tensorflow.examples.tutorials.mnist.input_data.read_data_sets.<locals>.DataSets object at 0x10f930630>
Załóżmy, że mamy macierze numpy i wejścia i wyjścia.
>>> x = np.random.normal(0,1, (100, 10))
>>> y = np.random.randint(0, 2, 100)
Jak mogę je przekształcić w zestaw danych tf
?
chcę użyć funkcji jak next_batch
Ok, dzięki temu miałem tego podejrzanego. Myślę, że byłoby to pomocne narzędzie w ramach głównej biblioteki. AFAIK każda operacja wsadowa na tablicy numpy wymaga wykonania kopii danych. Może to prowadzić do wolniejszego algorytmu. – Donbeo
Filozofia mówi, że TensorFlow powinien po prostu być podstawową biblioteką matematyczną, ale inne biblioteki o otwartym kodzie źródłowym mogą zapewnić dodatkowe abstrakcje używane do uczenia maszynowego. Podobne do Theano, na którym zbudowane są biblioteki takie jak Pylearn2. Jeśli chcesz uniknąć operacji kopiowania, możesz użyć funkcji dostępu do danych w oparciu o kolejki zamiast podawania symboli zastępczych. –
Widzę punkt. Wielkie dzięki! – Donbeo