Saya benar-benar baru di bidang LSTM. Apakah ada tips untuk mengoptimalkan autoencoder saya untuk tugas merekonstruksi urutan len = 300

Lapisan bottleneck harus memiliki 10-15 neuron

model = Sequential()
model.add(LSTM(128, activation='relu', input_shape=(timesteps,1), return_sequences=True))
model.add(LSTM(64, activation='relu', return_sequences=False))
model.add(RepeatVector(timesteps))
model.add(LSTM(64, activation='relu', return_sequences=True))
model.add(LSTM(128, activation='relu', return_sequences=True))
model.add(TimeDistributed(Dense(1)))
model.compile(optimizer='adam', loss='mae')

Kode disalin dari: https://towardsdatascience.com/step -by-step-understanding-lstm-autoencoder-layers-ffab055b6352

Saat ini hasilnya hanya urutan nan: [nan, nan, nan ... nan, nan]

Urutannya mirip dengan gambar di bawah ini:

enter image description here

0
janwe 3 Juli 2020, 10:49

1 menjawab

Jawaban Terbaik

Saya percaya fungsi aktivasi yang Anda gunakan di sini yaitu 'relu' mungkin mematikan gradien. Coba gunakan fungsi aktivasi lain seperti 'tanh' yang cocok untuk data Anda.

0
vbhargav875 3 Juli 2020, 08:24