亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

為什么張量沒有連接到 TensorBoard 中的梯度?

為什么張量沒有連接到 TensorBoard 中的梯度?

千萬里不及你 2022-05-19 14:35:01
為了練習,我想在 tensorflow 中實現一個模型,它可以返回輸入的平方。我的代碼工作正常,但是當我查看 TensorBoard 中的計算圖時,LOSS 操作沒有連接到 Gradients 子圖,也沒有連接到 Adam。為什么是這樣?據我了解,計算梯度,張量流必須推導損失。這是我的代碼:import numpy as npimport tensorflow as tfnp_inp = np.array([3, 6, 4, 2, 9, 11, 0.48, 22, -2.3, -0.48])np_outp = np.power(np_inp, 2)inputs = tf.Variable(np_inp, name='input', trainable=False)outputs = tf.Variable(np_outp, name='output', trainable=False)multiplier = tf.Variable(0.1,                                                       dtype=tf.float64, trainable=True, name='multiplier')mul = inputs * multiplierpredict = tf.square(mul, name='prediction')loss = tf.math.reduce_sum(tf.math.square(predict-outputs), name='LOSS')optimizer = tf.train.AdamOptimizer(0.1)to_minimize = optimizer.minimize(loss)sess = tf.Session()sess.run(tf.global_variables_initializer())logs_path = "./logs/unt"  # path to the folder that we want to save the logs for Tensorboardtrain_writer = tf.summary.FileWriter(logs_path, sess.graph)for i in range(100):  sess.run(to_minimize)print(sess.run({'mult':multiplier}))張量板: https ://gofile.io/?c=jxbWiG
查看完整描述

1 回答

?
瀟瀟雨雨

TA貢獻1833條經驗 獲得超4個贊

這可能與直覺相反,但損失的實際值并不用于訓練本身(盡管繪制它以查看其進度可能很有用)。優化器一般使用的是梯度,即每個變量的每次變化會如何影響損失值。為了計算這一點,創建了一個形狀相同LOSS但填充了一個的張量,并通過反向傳播計算每個操作的梯度。如果您打開gradients圖表中的框,您將看到一個LOSS_grad表示此框的框。

http://img1.sycdn.imooc.com//6285f1f700015cbc07450492.jpg

它是由幾個節點組成的張量,因為某事物相對于自身的梯度總是一個。從那里,計算其余的梯度。



查看完整回答
反對 回復 2022-05-19
  • 1 回答
  • 0 關注
  • 157 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號