如何解决使用 Tensorboard 时的分布问题
我正在使用 tenosrflow 1.15.0 以便我可以在 tensorboard 回调中使用 write_grads 参数,并且似乎时代数在我拥有的任何分布或直方图中都翻了一番。 另一方面,在更高版本的 tensorflow 上,我看不到这个问题。 我在 colab 和 jupyterLab 上尝试了这个,结果相同。
这是我的试验表格示例:
#modules definition ..
#data pre-processing ..
#model construction ..
tensorBoard = tf.keras.callbacks.TensorBoard(log_dir= log_dir,write_grads=True,histogram_freq=1)
#...
#data fitting
rnn_fit= model.fit(X_train,Y_train,validation_split=0.1,epochs=50,callbacks=[tensorBoard])
%load_ext tensorboard
%tensorboard --logdir log_dir
结果:
epoch_loss_scalar kernel_grad_distribution
epoch 数只有 50,但分布显示 100 ! 你能解释一下吗?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。