因為它是類化,所以我不認為您需要使用TimeDistributed層。 不過,我可以向您解釋,TimeDistributed允許您對每個時間步應用相同的操作。例如,在視頻中,您可能希望在每一幀上應用相同的Conv2D。在文檔中的示例中,有10個幀,并且對每個幀應用相同的卷積: >>> inputs = tf.keras.Input(shape=(10, 128, 128, 3))>>> conv_2d_layer = tf.keras.layers.Conv2D(64, (3, 3))>>> outputs = tf.keras.layers.TimeDistributed(conv_2d_layer)(inputs)>>> outputs.shapeTensorShape([None, 10, 126, 126, 64]) 在時間序列中,核心思想是相同的:您可能希望對每個時間點的特性應用一個操作。因為需要保持時間間隔,所以應該在TimeDistributed層之前設置return_sequences=True。例如,對于您的數據: modelSimple.add(SimpleRNN(200, return_sequences=True, activation='softmax',input_shape=(38