Dalam analisis sistem keuangan, kita mengenal dua penggunaan utama model jaring syaraf tiruan, yaitu :
l Model Jaringan Syaraf Tiruan digunakan sebagai model multi-agen; dalam hal ini neuron-neuron dipandang sebagai agen-agen pelaku ekonomi yang saling berinteraksi satu sama lain yang menghasilkan fenomena yang dilihat sebagai faktor agregasi dalam analisis yang dibangun. Hal ini dapat dilihat dalam beberapa karya heuristik seperti dalam Zimmerman dkk, 2001. Dalam sosiologi metode ini dapat ditemui dalam situngkir (2003).
l Model Jaringan Syaraf Tiruan digunakan sebagai perseptron (perceptron) yang mempelajari sebuah data deret waktu sedemikian hingga mampu melakukan identifikasi dan aproksimasi dari data deret waktu tersebut.
Penelitian ini berkonsentrasi pada penggunaan model kedua, yaitu bagaimana menggunakan model Jaringan syaraf tiruan untuk melakukan prediksi atau peramalan terhadap sebuah data keuangan deret waktu yang diberikan.
2.1.8.8 Galat Propagasi Balik (Error Back Propagation)
Dalam menggunakan model Jaringan syaraf tiruan dengan model / varian yang disebut sebagai Perseptron Multi Lapisan (Multi Layer Perceptron) yang memiliki ni lapisan masukan, nh lapisan tersembunyi, dan no lapisan keluaran tidak ada hubungan intra lapisan atau loop dengan topologi standard: ni-nh-no. Untuk menentukan topologi dari jaring syaraf yang hendak digunakan untuk aproksimasi data deret waktu sangat bergantung pada kerumitan data yang hendak diaproksimasi. Ini merupakan bentuk pengaturan diri sendiri pada titik kritis (Self Organized Criticallity) yang ditemui dalam model Jaringan syaraf tiruan. Jaringan Syaraf multi lapisan pada dasarnya selalu dapat digambarkan sebagai sebuah Jaringan syaraf satu lapis. Tiap neuron akan dilatih sedemikian rupa untuk dapat memahami data deret waktu yang kita berikan. Model latihan atau training yang digunakan adalah pelatihan Galat Propagasi Balik.
Pelatihan sebuah jaringan yang menggunakan propagasi balik terdiri atas tiga langkah (Kristanto, 2004), yaitu :
a) Pelatihan pola input secara feedforward
b) Perhitungan dan back propagation dari kumpulan kesalahan.
c) Penyesuaian bobot
Sesudah pelatihan, aplikasi dalam Jaringan hanya terdiri atas fase feed forward. Jika pelatihan menjadi lambat, sebuah jaringan yang dilatih dapat menghasilkan outputnya sendiri secara cepat.
Galat Propagasi Balik merupakan model training yang sangat populer dikalangan pengguna model Jaringan Syaraf Tiruan arus maju (multi layer feed forward neural network). Gambar mekanisme Galat Propagasi balik dapat dilihat pada Gambar 2.4. Model training galat propagasi balik merupakan aturan koreksi kesalahan dimana kesalahan keluaran jaring syaraf dipropagasikan kembali kedalam lapisan tersembunyi untuk diproses kembali.
earning akan memperbaiki bobot-bobot berdasarkan gradient descent dengan learning rate yang bersifat adaptive. Pada gradient descent standard (traingd), selama proses pembelajaran, learning rate akan bernilai konstan. Apabila learning rate terlalu tinggi, maka algoritma menjadi tidak stabil. Sebaliknya, jika learning rate terlalu kecil maka algoritma akan sangat lama dalam mencapai kekonvergenan. Kita akan sangat sulit untuk menentukan berapa nilai learning rate yang optimal sebelum proses pelatihan berlangsung. Pada kenyataannya, nilai learning rate yang optimal ini akan terus berubah selama proses pelatihan seiring dengan berubahnya nilai fungsi kinerja. Pada gradient descent dengan adaptive learning rate, nilai learning rate akan diubah selama proses pelatihan untuk menjaga agar algoritma ini senantiasa stabil selama proses pelatihan.
Algoritma gradient descent dengan adaptive learning rate, dasarnya sama dengan algoritma gradient descent standard dengan beberapa perubahan. Pertama-tama dihitung terlebih dahulu nilai output jaringan dan error pelatihan. Pada setiap epoch, bobot-bobot baru dihitung dengan menggunakan learning rate yang ada. Kemudian dihitung kembali output jaringan dan error pelatihan. Jika perbandingan antara error pelatihan yang baru dengan error pelatihan lama melebihi maksimum kenaikan kinerja (max_perf_inc), maka bobot-bobot baru tersebut akan diabaikan, sekaligus nilai learning rate akan dikurangi dengan cara mengalikannya dengan lr_dec. Sebaliknya, apabila perbandingan antara error pelatihan baru dengan error pelatihan lama kurang dari maksimum kenaikan kinerja, maka nilai bobot-bobot akan dipertahankan, sekaligus nilai learning rate akan dinaikkan dengan cara mengalikannya dengan lr_inc.
Dengan cara ini, apabila learning rate terlalu tinggi dan mengarah ke ketidakstabilan, maka learning rate akan diturunkan. Sebaliknya jika learning rate terlalu kecil untuk menuju konvergensi, maka learning rate akan dinaikkan. Dengan demikian, maka algoritma pembelajaran akan tetap terjaga pada kondisi stabil.
Algoritma gradient descent with momentum and adaptive learning(traingdx) merupakan penggabungan antara algoritma gradient descent with adaptive learning(traingda) dan algoritma gradient descent with momentum(traingdm). Algoritma ini merupakan algoritma default yang digunakan oleh matlab karena memiliki performa kecepatan pelatihan yang tinggi.
2.2 Penelitian Terdahulu
2.2.1 Multifraktal
Razdan (2002) meneliti multifraktalitas pada Indeks Bombay Stock Exchange (BSE) dan mengambil kesimpulan bahwa data deret waktu indeks BSE berifat monofraktal dan dapat direpresentasikan oleh gerak brown sebagian.
Yoon dan Choi (2005) melakukan penelitian pada pasar nilai tukar won terhadap dolar dan KOSPI (Korean Stock Price Index) dengan menggunakan analisis R/S dan mengambil kesimpulan bahwa data tersebut memiliki kecenderungan efek tren yang bertahan dalam jangka panjang.
Hariadi dan Surya (2003) melakukan penelitian pada tiga saham BEJ, yaitu Telkom, Indosat dan HM Sampoerna dan mendapatkan hasil bahwa saham-saham tersebut memiliki kecenderungan tren jangka pendek, artinya perubahan nilai saham tidak dipengaruhi oleh perubahan nilai saham yang terpisah dalam selang waktu lama. Nilai dimensi fraktal yang lebih dari 1,5 mendukung pernyataan pertama bahwa ketiga saham tidak memiliki kecenderungan untuk bertahan pada tren tertentu.