Text
Implementasi Metode Long Short-Term Memory (LSTM) untuk Memprediksi Latency Network Start-up Netmonk
Latency merupakan waktu yang dibutuhkan oleh data untuk mengirim permintaan
dari server ke perangkat pengguna, dan untuk perangkat pengguna memproses
permintaan dari server. Pelaku bisnis perlu mengetahui besarnya latency di masa
mendatang untuk dapat mengambil tindakan preventif sebelum terjadi lonjakan
latency. Salah satu metode peramalan berbasis deep learning yang digunakan untuk
memprediksi besarnya latency adalah Long Short-Term Memory (LSTM). LSTM
menggunakan 4 layer yang mampu mengolah data numerik, teks, maupun gambar
dengan akurasi yang tinggi sehingga menjadikan LSTM sebagai metode peramalan
yang paling baik dibandingkan dengan metode machine learning tradisional.
Tujuan dari penelitian ini untuk mengimplementasikan serta menganalisis kinerja
LSTM dalam memprediksi data latency. Penelitian ini menggunakan 364.714 data
latency yang dibagi menjadi dua sub-dataset, sub-dataset training dan sub-dataset
testing, dengan rasio perbandingan 80:20. Penentuan model terbaik didapatkan
melalui serangkaian percobaan. Model LSTM yang dimaksud merupakan
kombinasi hyperparameter yang digunakan selama melakukan proses pelatihan.
Hyperparameter tersebut terdiri dari jumlah layer dan unit LSTM, hidden neuron,
batch size, epoch, dan learning rate yang digunakan selama pelatihan sehingga
didapatkan model terbaik dengan konfigurasi 30 timesteps, 1 layer LSTM, 64 unit
LSTM, 8 hidden neuron, 128 batch size, 25 epoch, 0,0001 learning rate, dan Adam
optimizer. Hasil analisis menunjukkan bahwa model yang dibangun mampu
memprediksi besarnya latency dengan sangat baik yang menghasilkan nilai RMSE
sebesar 0,002081 detik pada data testing serta nilai 0,010965 detik pada hasil
prediksi latency dalam 6 bulan selanjutnya. Hasil tersebut menyatakan bahwa
prediksi latency network menggunakan metode LSTM tergolong memiliki tingkat
akurasi yang tinggi.
Kata Kunci: Latency, Peramalan, LSTM, Neural Network, Adam Optimizer
| 1184E2024 | 1184 E 2024 | Perpustakaan FSM Undip | Tersedia |
Tidak tersedia versi lain