51¶¯Âþ

51¶¯Âþ Official Website

Penentuan Jumlah Neuron Terbaik pada Arsitektur Jaringan Syaraf Tiruan Backpropagation dengan Tiga Lapisan Tersembunyi

Ilustrasi oleh YouTube

Secara umum arsitektur jaringan Backpropagation terdiri dari tiga lapisan, yaitu lapisan input, lapisan tersembunyi, dan lapisan output. Proses penentuan jumlah neuron pada lapisan input dan lapisan output tidak terlalu sulit karena tergantung dari jumlah input dan jumlah output yang diinginkan. Hal ini tidak sama dengan jumlah neuron di lapisan tersembunyi. Memutuskan berapa banyak neuron yang akan digunakan di lapisan tersembunyi adalah salah satu sifat terpenting dari jaringan saraf (Neural Network yang selanjutnya disingkat NN). Jika jumlah neuron terlalu kecil, NN tidak dapat memodelkan data yang kompleks dan hasilnya mungkin tidak dapat diterima. Penggunaan neuron yang terlalu banyak tidak hanya akan menambah waktu pelatihan, tetapi juga menurunkan kinerja NN. Oleh karena itu, banyak peneliti melakukan eksperimen untuk menentukan jumlah neuron yang optimal. Jumlah neuron yang digunakan selama proses pelatihan data menjadi poin penting dalam membangun arsitektur jaringan Back Propagation agar diperoleh akurasi yang tinggi. Arsitektur yang terdapat pada proses pelatihan data akan digunakan sebagai acuan untuk proses prediksi.
Park (2011) telah menuliskan tiga rumus yang dapat digunakan dalam menentukan jumlah neuron pada lapisan tersembunyi, yaitu rumus Hecht-Nelson (1987), Lawrence-Fredrickson (1988), dan Marchandani-Cao (1989). Selain itu, ada juga formula yang sering digunakan oleh peneliti lain, yaitu formula modifikasi Berry-Linoff (1997), Boger-Guterman (1997), JingTao-Chew (2001), dan Lawrence-Fredrickson. Rumus ini menghitung jumlah neuron pada lapisan tersembunyi pertama dengan melihat jumlah neuron pada lapisan input dan lapisan output. Jadi, perhitungannya bukan untuk lapisan tersembunyi kedua, ketiga, dan seterusnya. Rumus-rumus tersebut dibagi menjadi dua klasifikasi, yaitu (1) jumlah neuron pada lapisan input yang lebih besar dari pada lapisan tersembunyi dan (2) jumlah neuron pada lapisan input yang lebih kecil dari pada lapisan tersembunyi. Namun ada juga peneliti yang menggunakan arsitektur dengan jumlah neuron pada lapisan tersembunyi sama dengan jumlah neuron pada lapisan input.
Perkembangan jaringan saraf terus dilakukan oleh peneliti dengan melakukan eksperimen menggunakan dua lapisan tersembunyi. Namun, penelitian menggunakan tiga lapisan tersembunyi dan menentukan jumlah neuron di lapisan tersembunyi belum dipelajari secara intensif, karena bertambahnya jumlah lapisan tersembunyi berpengaruh pada durasi pelatihan data proses. Oleh karena itu, penentuan jumlah neuron dalam lapisan tersembunyi tidak banyak dilakukan oleh para peneliti. Selain itu, perhitungannya harus didasarkan pada aturan yang ada, yang telah diuji untuk hasil percobaan baik untuk kasus dua atau tiga lapisan tersembunyi. Dari sini, belum ada studi yang mendalam tentang bagaimana menghitung jumlah neuron pada arsitektur Neural Network Backpropagation (NNBP) dengan dua atau tiga lapisan tersembunyi berdasarkan formula yang ada. Pada artikel ini, kami menghitung jumlah neuron di lapisan tersembunyi pertama, lapisan tersembunyi kedua, dan lapisan tersembunyi ketiga berdasarkan rumus yang disebutkan. Kami menggunakan dua jenis data dengan pola dan tren yang berbeda, yakni data curah hujan yang memiliki tren ekstrem dan data suhu dengan tren monoton. Hasil penelitian ini diharapkan dapat memberikan konsep yang lebih mudah dalam menentukan jumlah neuron dalam arsitektur NNBP dengan lebih banyak lapisan tersembunyi.
Hasil penelitian yang kami lakukan menunjukkan bahwa selama pelatihan dan pengujian data, jumlah lapisan tersembunyi memiliki dampak besar pada peningkatan kinerja jaringan NNBP. Hal yang sama berlaku untuk jumlah neuron yang harus digunakan ketika membangun arsitektur dengan jumlah lapisan tersembunyi lebih dari satu. Hasil data pelatihan dan pengujian suhu dan curah hujan menunjukkan bahwa ketujuh formula yang ditawarkan memiliki tingkat akurasi yang berbeda. Akan tetapi, formula pertama dengan arsitektur 36-73-37-19-1 menunjukkan tingkat akurasi tertinggi pada data suhu latih sebesar 97,79% dan data pengujian 99,99%, sedangkan pada proses data curah hujan dengan formula pertama diperoleh tingkat akurasi sebesar 99,94% untuk data pelatihan dan 99,99% untuk data pengujian. Dengan demikian, dari arsitektur ini didapatkan prediksi curah hujan tertinggi pada tahun 2022 terjadi pada bulan Desember dan terendah pada bulan September, serta didapatkan prediksi suhu rata-rata sebesar 26,22℃. Oleh karena itu, kami merekomendasikan rumus Hecht-Nelson untuk menghitung jumlah neuron pada lapisan tersembunyi pertama, sedangkan untuk penghitungan neuron pada lapisan tersembunyi kedua dan ketiga, kami merekomendasikan rumus Lawrence-Fredrickson. Hasil ini membuka peluang bagi penelitian baru untuk melakukan modifikasi atau kombinasi dari seluruh formula untuk menemukan arsitektur terbaik melalui banyak eksperimen dan pelatihan data.

Penulis: Dr. Fatmawati, M.Si
Informasi detail dari riset ini dapat dilihat pada tulisan kami di:

Authors: Syaharuddin, Fatmawati, Herry Suprajitno.
Title: The Formula Study in Determining the Best Number of Neurons in Neural Network Backpropagation Architecture with Three Hidden.
DOI:

AKSES CEPAT