2016-04-22 12 views
9

Moje wykresy Moje TensorBoard traktują kolejne przebiegi mojego kodu TensorFlow tak, jakby były częścią tego samego przebiegu. Na przykład, jeśli najpierw uruchomić mój kod (poniżej) z FLAGS.epochs == 10 a następnie ponownie ją FLAGS.epochs == 40 uzyskaćJak mogę oddzielić przebiegi mojego kodu TensorFlow w TensorBoard?

enter image description here

który „zawraca” na koniec pierwszego uruchomienia, aby rozpocząć drugi.

Czy istnieje sposób traktowania wielu przebiegów mojego kodu jako odrębne dzienniki, które na przykład mogą być porównywane lub przeglądane indywidualnie?


from __future__ import (absolute_import, print_function, division, unicode_literals) 

import tensorflow as tf 
from tensorflow.examples.tutorials.mnist import input_data 

# Basic model parameters as external flags. 
flags = tf.app.flags 
FLAGS = flags.FLAGS 
flags.DEFINE_float('epochs', 40, 'Epochs to run') 
flags.DEFINE_integer('mb_size', 40, 'Mini-batch size. Must divide evenly into the dataset sizes.') 
lags.DEFINE_float('learning_rate', 0.15, 'Initial learning rate.') 
flags.DEFINE_float('regularization_weight', 0.1/1000, 'Regularization lambda.') 
flags.DEFINE_string('data_dir', './data', 'Directory to hold training and test data.') 
flags.DEFINE_string('train_dir', './_tmp/train', 'Directory to log training (and the network def).') 
flags.DEFINE_string('test_dir', './_tmp/test', 'Directory to log testing.') 

def variable_summaries(var, name): 
    with tf.name_scope("summaries"): 
     mean = tf.reduce_mean(var) 
     tf.scalar_summary('mean/' + name, mean) 
     with tf.name_scope('stddev'): 
      stddev = tf.sqrt(tf.reduce_sum(tf.square(var - mean))) 
      tf.scalar_summary('sttdev/' + name, stddev) 
    tf.scalar_summary('max/' + name, tf.reduce_max(var)) 
    tf.scalar_summary('min/' + name, tf.reduce_min(var)) 
    tf.histogram_summary(name, var) 

def nn_layer(input_tensor, input_dim, output_dim, neuron_fn, layer_name): 
    with tf.name_scope(layer_name): 
     # This Variable will hold the state of the weights for the layer 
     with tf.name_scope("weights"): 
      weights = tf.Variable(tf.truncated_normal([input_dim, output_dim], stddev=0.1)) 
      variable_summaries(weights, layer_name + '/weights') 
     with tf.name_scope("biases"): 
      biases = tf.Variable(tf.constant(0.1, shape=[output_dim])) 
      variable_summaries(biases, layer_name + '/biases') 
     with tf.name_scope('activations'): 
      with tf.name_scope('weighted_inputs'): 
       weighted_inputs = tf.matmul(input_tensor, weights) + biases 
       tf.histogram_summary(layer_name + '/weighted_inputs', weighted_inputs) 
      output = neuron_fn(weighted_inputs) 
      tf.histogram_summary(layer_name + '/output', output) 
    return output, weights 

# Collect data 
mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True) 

# Inputs and outputs 
x = tf.placeholder(tf.float32, shape=[None, 784]) 
y_ = tf.placeholder(tf.float32, shape=[None, 10]) 

# Network structure 
o1, W1 = nn_layer(x, 784, 30, tf.nn.sigmoid, 'hidden_layer') 
y, W2 = nn_layer(o1, 30, 10, tf.nn.softmax, 'output_layer') 

with tf.name_scope('accuracy'): 
    with tf.name_scope('loss'): 
     cost = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) 
     loss = cost + FLAGS.regularization_weight * (tf.nn.l2_loss(W1) + tf.nn.l2_loss(W2)) 
    with tf.name_scope('correct_prediction'): 
     correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1)) 
    with tf.name_scope('accuracy'): 
     accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 
    tf.scalar_summary('accuracy', accuracy) 
    tf.scalar_summary('loss', loss) 

train_step = tf.train.GradientDescentOptimizer(FLAGS.learning_rate).minimize(loss) 

# Logging 
train_writer = tf.train.SummaryWriter(FLAGS.train_dir, tf.get_default_graph()) 
test_writer = tf.train.SummaryWriter(FLAGS.test_dir) 
merged = tf.merge_all_summaries() 

with tf.Session() as sess: 
    sess.run(tf.initialize_all_variables()) 

    for ep in range(FLAGS.epochs): 
     for mb in range(int(len(mnist.train.images)/FLAGS.mb_size)): 
      batch_xs, batch_ys = mnist.train.next_batch(FLAGS.mb_size) 
      sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys}) 

     summary = sess.run(merged, feed_dict={x: mnist.test.images, y_: mnist.test.labels}) 
     test_writer.add_summary(summary, ep+1) 
+3

Umieść je w różnych podkatalogach, a następnie s jak jako oddzielne biegi – etarion

+0

@etarion: Tak, z wyjątkiem tego oczywistego sposobu. A więc: ten sam katalog oznacza ten sam ruch z definicji, niezależnie od tego, czy kod był rzeczywiście uruchamiany w różnym czasie, czy też różne pliki zostały (automatycznie) wygenerowane? Lub umieścić w inny sposób (to jest naprawdę pytanie): nie ma sposobu na odróżnienie oddzielnych plików dziennika w katalogu? – orome

+1

podczas zapisywania/wznawiania uruchamiania, nie chcesz rozróżniać oddzielnych plików dziennika ... może być opcja, ale jeśli tak, nie znam żadnej. – etarion

Odpowiedz

5
from fs.osfs import OSFS 
folder = OSFS(FLAGS.test_dir) 
test_n = len(list(n for n in folder.listdir() if n.startswith('test'))) 
this_test = FLAGS.test_dir+"/test" + str(test_n+1) 
test_writer = tf.train.SummaryWriter(this_test) 

Można użyć coś takiego mieć swój biegnie wyliczone.

0

Można użyć (niskiego poziomu) moduł „czas”, aby uzyskać ciąg dla kiedy rozpoczyna bieg, i nazwać Odpowiednio katalogu ..

Oto przykład przy użyciu Keras z backend TensorFlow

from keras.callbacks import TensorBoard 
import time 

now = time.strftime("%c") 
model.fit(X, Y, batch_size = 2, nb_epoch = 100, shuffle = True, 
     verbose = 1, validation_split = 0.1, 
     callbacks =[TensorBoard(log_dir='./logs/'+now, histogram_freq=0, write_graph=True)]) 

To daje zestaw katalogów, takich jak

% ls logs 
Fri Sep 2 23:58:39 2016/ Sat Sep 3 00:05:41 2016/ 

... tak, nazwy mają spacje w nich, ale Tensorboard nie przeszkadza. Zobaczysz listę przebiegów, oznaczonych kolorami i datę i godzinę na podstawie daty rozpoczęcia.

5

Możesz umieścić swoje biegi w oddzielnych podkatalogów, jak:

./logdir/2016111301/ 
./logdir/2016111302/ 
./logdir/2016111401/ 

niż nazywasz swoją funkcję tensorboard w katalogu root:

tensorboard --logdir=logdir 

Niż będzie posiadać osobne logi jak:

enter image description here

+1

To jednak nie jest pytanie. Pytanie brzmi: * jak * to zrobić (zgodnie z odpowiedzią). – orome

+0

Dlatego napisałem "umieść swoje serie w oddzielnych podkatalogach". A może przegapiłem to pytanie? I dlaczego jeszcze nie przyjąłeś odpowiedzi, jeśli masz już odpowiedź na swoje pytanie? – bendaf