0
你可以使用CSVLogger回调。 例如:
from keras.callbacks import CSVLogger
csv_logger = CSVLogger('log.csv', append=True, separator=';')
model.fit(X_train, Y_train, callbacks=[csv_logger])
收藏
当运行Keras神经网络模型时,可能会在控制台中看到以下内容:
Epoch 1/3
6/1000 [..............................] - ETA: 7994s - loss: 5111.7661
随着迭代次数增加,损失有望改善。我想将这些损失随时间记录到文件中,以便我可以从中学习。我试过了:
logging.basicConfig(filename='example.log', filemode='w', level=logging.DEBUG)
但不起作用。
我也尝试过使用如下回调:
def generate_train_batch():
while 1:
for i in xrange(0,dset_X.shape[0],3):
yield dset_X[i:i+3,:,:,:],dset_y[i:i+3,:,:]class LossHistory(keras.callbacks.Callback):
def on_train_begin(self, logs={}):
self.losses = []
def on_batch_end(self, batch, logs={}):
self.losses.append(logs.get('loss'))
logloss=LossHistory()
colorize.fit_generator(generate_train_batch(),samples_per_epoch=1000,nb_epoch=3,callbacks=['logloss'])
但这显然不是在写文件。有什么方法可以将keras神经网络的损失记录到文件中吗?
你可以使用CSVLogger回调。 例如:
from keras.callbacks import CSVLogger
csv_logger = CSVLogger('log.csv', append=True, separator=';')
model.fit(X_train, Y_train, callbacks=[csv_logger])