Saya tertarik menggunakan pustaka tune untuk pembelajaran penguatan dan saya ingin menggunakan kemampuan papan tensor bawaan. Namun, metrik yang saya gunakan untuk menyetel hyperparameter saya didasarkan pada prosedur evaluasi yang memakan waktu yang seharusnya jarang dijalankan.

Menurut dokumentasi, sepertinya metode _train mengembalikan kamus yang digunakan baik untuk logging maupun untuk menyetel hyperparameter. Apakah mungkin untuk melakukan logging lebih sering dalam metode _train? Sebagai alternatif, dapatkah saya mengembalikan nilai yang ingin saya log dari metode _train tetapi terkadang menghilangkan metrik yang mahal untuk dihitung dari kamus?

ray
0
ethanabrooks 14 Agustus 2019, 00:02

1 menjawab

Jawaban Terbaik

Salah satu opsi adalah menggunakan mekanisme logging Anda sendiri di Trainable. Anda dapat masuk ke direktori khusus percobaan (Trainable.logdir). Jika ini bertentangan dengan logging Tensorboard bawaan, Anda dapat menghapusnya dengan menyetel tune.run(loggers=None).

Pilihan lain adalah, seperti yang Anda sebutkan, terkadang menghilangkan metrik yang mahal untuk dihitung dari kamus. Jika Anda mengalami masalah dengan itu, Anda juga dapat mengembalikan "Tidak Ada" sebagai nilai untuk metrik yang tidak Anda rencanakan untuk dihitung dalam iterasi tertentu.

Semoga membantu!

1
richliaw 14 Agustus 2019, 03:55