因為我是深度學習的新手,所以這個問題對你來說可能很有趣。但我無法在腦海中想象它。這就是為什么我要問它。我給一個句子作為 LSTM 的向量,認為我有一個包含 10 個單詞的句子。然后我將這些句子更改為向量并將其提供給 LSTM。LSTM 單元的長度應該是 10。但是在大多數教程中,我看到他們添加了 128 個隱藏狀態。我無法理解和想象它。LSTM層這個詞是什么意思"128-dimensional hidden state"例如:X = LSTM(128, return_sequences=True)(embeddings)這看起來的夏天lstm_1 (LSTM) (None, 10, 128) 91648這里看起來像是添加了 10 個 LSTM 單元,但為什么那里有 128 個隱藏狀態?希望你能理解我的期待。
Keras LSTM 中隱藏狀態的含義
慕工程0101907
2021-07-03 10:04:27