fauzi.me

Selalu Bersyukur

Neural Network (NN) / Jaringan Syaraf Tiruan (JST)

Fauzi Alfa Alfi

Bapak dari tiga anak yang doyan kemana-mana membawa rombongan sirkus dan hobi ajak rombongan sirkus tidur di hutan dan pantai untuk menikmati alam.

Contact Info



Telephone Number

(+62)-856-331-1779

Mail Address

mail@fauzi.me

Office Address

Jl. Cakalang V No.161 C

Kota Malang – Indonesia

Tags


There’s no content to show here yet.

2.4.1 Konsep Neural Network (NN) / Jaringan Syaraf Tiruan (JST)

Neural Network (NN) / Jaringan Syaraf Tiruan (JST) adalah sistem pemrosesan informasi yang memiliki karakteristik performansi seperti neuron (sel syaraf) otak manusia. Neuron biologi memiliki tiga tipe komponen yang berhubungan dengan pemahaman cara kerja dari Artificial Jaringan Syaraf Tiruan (JST) yaitu dendrite, soma, dan axon. Dendrite menerima sinyal dari neuron yang lain. Soma atau sel body menjumlahkan sinyal yang datang. Ketika input yang cukup diterima, sel akan mentransmisikan sinyal tersebut melalui axon ke sel yang lain. Neuron biologis ditunjukkan pada gambar 2.1

 

Gambar 2.11. Neuron Biologis (Fauset, 1994)
Gambar 2.11. Neuron Biologis (Fauset, 1994)
Neuron Buatan
Gambar 2.12. Neuron Buatan (Fauset, 1994)

Pada Jaringan Syaraf Tiruan (JST) setiap node dihubungkan dengan node lain melalui hubungan secara langsung menggunakan pemberat (bobot) masing – masing. Tiap node memiliki state internal dinamakan level aktivasi yang merupakan fungsi dari input yang diterima. Sebagai contoh, neuron Y (pada gambar 2.9) yang menerima input dari neuron X1, X2, dan X3. Aktivasi (sinyal output) neuron – neuron ini adalah x1, x2, dan x3. Bobot koneksi dari X1, X2, dan X3 ke neuron Y adalah w1, w2, w3. Net input y_in ke neuron Y adalah penjumlahan dari sinyal pembobot dari neuron X1, X2, dan X3.

y_in = w1x1 + w2x2 + w3x3                                                          (2.3)

 

 

Artificial Neuron Sederhana
Gambar 2.13 Artificial Neuron Sederhana (Fauset, 1994)


Aktivasi y dari Y diberikan oleh beberapa fungsi dari net inputnya, y = f (y_in)

 

 

2.4.2 Arsitektur Jaringan Syaraf Tiruan (JST)

Neuron – neuron pada jaringan diatur menjadi layer – layer. Neuron pada layer yang sama memiliki ciri yang sama. Faktor kunci dalam penentuan perilaku neuron adalah dari fungsi aktivasinya dan pola bobot dalam mengirim dan menerima sinyal. Di dalam tiap layer, neuron – neuron biasanya memiliki fungsi aktivasi yang sama dan pola hubungan yang sama dengan neuron – neuron yang lain. Pengaturan neuron – neuron ke dalam layer – layer dan pola hubungan dalam dan antarlayer dinamakan arsitektur Jaringan Syaraf Tiruan (JST).

Jaringan Syaraf Tiruan (JST) umumnya diklasifikasikan sebagai single layer atau multilayer. Dalam penentuan jumlah layer, unit input tidak dihitung sebagai suatu layer, karena unit input tidak memiliki proses komputasi. Single layer dan multilayer ditunjukkan pada gambar 2.14 dan 2.15

 

Single Layer
Gambar 2.14 Single Layer (Fauset, 1994)
Multi Layer
Gambar 2.15 Multi Layer (Fauset, 1994)


2.4.3 Cara Pembelajaran (Learning)

Istilah belajar (learning) pada Jaringan Syaraf Tiruan (JST) adalah proses pengaturan bobot – bobot sambungan antarnode yang dilakukan dengan metode tertentu, sehingga didapat bobot – bobot sambungan yang diinginkan. Proses belajar terjadi karena antara output yang dihasilkan Jaringan Syaraf Tiruan (JST) tidak sama dengan output yang diharapkan. Dengan kata lain bila bobot sambungan yang ada belum mampu menghasilkan output yang diharapkan maka bobot akan diatur oleh metode tertentu melalui latihan terus – menerus sehingga didapat susunan bobot yang baru dan lebih baik. Dengan susunan bobot ini maka perbedaan antara output Jaringan Syaraf Tiruan (JST) dan output pola akan semakin kecil. Dengan demikian berarti output yang dikeluarkan Jaringan Syaraf Tiruan (JST) akan sama dengan output yang diharapkan (output target). Setelah dilatih, maka Jaringan Syaraf Tiruan (JST) siap diuji dan dipakai. Pengujian dikatakan berhasil bila Jaringan Syaraf Tiruan (JST) sanggup menerima input dan mengeluarkan output seperti yang diharapkan.

Berdasarkan penyediaan output dan input maka metode belajar Jaringan Syaraf Tiruan (JST) dibagi menjadi dua :

  1. Supervised L earning
    Metode ini membutuhkan pasangan pola pelatihan dari tiap pola input dengan pola output target. Biasanya dibutuhkan pasangan pola pelatihan untuk semakin menambah “kepintaran” Jaringan Syaraf Tiruan (JST). Penyediaan input dan output dilakukan secara eksplisit sehingga tiap pasangan dapat menunjukkan output apa yang harus dihasilkan untuk input yang diberikan. Pola input dimasukkan ke dalam jaringan yang kemudian setelah diolah akan menghasilkan suatu output yang disebut output jaringan. Bila output jaringan tidak sama dengan output target, maka output target dikurangkan dengan output jaringan. Selisih dari kedua output tersebut menyatakan kesalahan (error) yang digunakan untuk mengubah bobot – bobot, sehingga kesalahan semakin mengecil pada siklus pelatihan berikutnya.
  2. Unsupervised LearningMetode ini tidak memerlukan pola output target untuk outputnya, sehingga tidak ada perbandingan antara output target dengan output Jaringan Syaraf Tiruan (JST). Kumpulan pola pelatihannya hanya berupa pola input. Pola input dimasukkan dalam jaringan sendiri yang harus self organizing sedemikian rupa sehingga menghasilkan ouput yang sama dengan inputnya.

 

2.4.4 Faktor – faktor Belajar

Ada beberapa parameter – parameter yang turut menentukan keberhasilan suatu proses belajar. Parameter – parameter tersebut antara lain :

  1. Inisialisasi bobotBobot – bobot interkoneksi dari Jaringan Syaraf Tiruan (JST) yang akan dilatih biasanya diinisialisasi dengan harga yang kecil. Inisialisasi mempunyai pengaruh yang besar terhadap hasil yang diinginkan. Ada dua jenis adaptasi bobot dalam pelatihan pada Jaringan Syaraf Tiruan (JST) yaitu adaptasi kumulatif (cumulatif weight adjustman) dan adaptasi biasa (incremental updating). Adaptasi biasa ialah bobot diadaptasi pada setiap pola yang masuk, sedangkan adaptasi kumulatif ialah bobot baru diadaptasi setelah seluruh pola masuk.
  2. Learning rate(kecepatan belajar (a))Parameter kecepatan belajar menunjukkan intensitas dalam proses belajar, parameter ini juga menentukan efektifitas dan konvergensi dari pelatihan. Umumnya harga optimum dari kecepatan belajar dipilih antara 0 sampai 1. Nilai a yang besar dapat menyebabkan meningkatnya kecepatan dalam menentukan nilai yang diinginkan tetapi juga memungkinkan adanya suatu overshoot.
  3. Momentum (m)

    Untuk meningkatkan kecepatan proses training dilakukan dengan menambahkan parameter momentum. Range nilai yang umum digunakan antara 0 sampai dengan 1. Nilai yang biasanya paling optimal adalah 0,9. Momemtum ini berguna untuk mempercepat konvergensi.

    Ketika dilakukan perhitungan pada saat penyesuaian bobot, maka ada penambahan dari perubahan nilai sebelumnya. Tambahan nilai tersebut bertujuan agar proses penyesuaian dari bobot cenderung dalam arah yang sama untuk menemukan global error minimal. Sehingga persamaan penyesuaian bobot yang baru :

                                              (2.4)

    dan

                                              (2.5)

  4. Kesalahan belajar dan batas iterasi

    Tingkat keberhasilan proses belajar dari sebuah jaringan yang sedang dilatih dapat dilihat dari parameter error. Parameter error menunjukkan kemampuan pada jaringan.

    Untuk menghindari proses training jaringan terjebak dalam suatu looping yang terus – menerus maka sebelumnya diberikan batas iterasi maksimum yang diperbolehkan.

2.4.5 Metode Jaringan Syaraf Tiruan (JST) Backpropagation

Jaringan backpropagation yang biasanya digunakan aplikasi adalah backpropagation dengan banyak lapisan (multilayer). Pada gambar 2.16 terlihat bahwa unit keluaran (Y) dan unit tersembunyi (Z) memiliki bias. Bias bekerja seperti bobot – bobot pada koneksi dari unit – unit yang keluarannya selalu 1.

 2.4.6 Arsitektur Jaringan Syaraf Tiruan Backpropagation

Jaringan Backpropagation terdiri dari tiga unit (neuron) pada lapisan input, yaitu X, X, dan X ; 1 lapisan tersembunyi dengan 2 neuron, yaitu Zdan Z; serta 1 unit pada lapisan output, yaitu Y. Bobot yang menghubungkan X, X, dan X dengan neuron pertama pada lapisan tersembunyi, adalah V, V, dan V. Untuk b1 dan b1adalah bobot bias yang menuju ke neuron pertama dan kedua pada lapisan tersembunyi. Bobot yang menghubungkan Zdan Z dengan neuron pada lapisan output, adalah Wdan W. Bobot bias bmenghubungkan lapisan tersembunyi dengan lapisan output. Fungsi aktivasi yang digunakan, antara lapisan input dan lapisan tersembunyi, dan antara lapisan tersembunyi dengan lapisan output adalah fungsi aktivasi logsig (tidak diperlihatkan pada gambar).

 

Arsitektur Jaringan Backpropagation
Gambar 2.16 Arsitektur Jaringan Backpropagation


2.4.7 Algoritma Jaringan Syaraf Tiruan (JST) Backpropagation

Pada pengoperasian Jaringan Syaraf Tiruan (JST) terdapat dua tahap operasi yang terpisah yaitu tahap belajar dan tahap pemakaian. Tahap belajar merupakan proses untuk mendapatkan bobot koneksi yang sesuai. Penyesuaian bobot dimaksudkan agar setiap pemberian input ke neural menghasilkan output yang dinginkan. Adapun algoritam backpropagation dapat diketahui dari serangakaian perhitungan. Dengan berdasarkan pada gambar 2.13 dapat diketahui bahwa masing – masing sinyal input xi akan meneruskan sinyal inputan ke semua lapisan diatasnya ( lapisan tersembunyi ). Tiap-tiapunit pada suatu lapisan tersembunyi (Zj, j = 1,…,p) akan menjumlahkan bobot sinyal input :

                                                (2.6)

Output sinyal dapat diperoleh dengan menerapkan fungsi aktivasi

                                                     (2.7)

 

Jaringan Backpropagation
Gambar 2.17 Jaringan Backpropagation ( Fauset, 1994 )

Unit hidden ini akan mengirimkan sinyal ke seluruh lapisan atasnya yaitu lapisan output. Tiap-tiap unit output ( Y, k=1, 2,3,…,m ) akan menjumlahkan bobot sinyal-sinyal input terbobot.

                                             (2.8)

Dengan menerapkan fungsi aktivasi untuk menghitung sinyal outputnya.

                                                         (2.9)

Tahap ini disebut tahap propagasi maju. Sedangkan proses perhitungan propagsi mundur (backpropagation) perlu perhitungan kesalahan outputnya. Apabila output yang dihasilkan belum sesuai dengan apa yang diinginkan (target) maka jaringan akan menghitung error output yang besarnya:

                                         (2.10)

Perhitungan update bobot

                                                      (2.11)

Sedangakan pengoreksian bias (update bias)

                                                       (2.12)

Tiap – tiap hidden akan menjumlahkan delta input dari lapisan di atasnya

                                              (2.13)

Perhitungan informasi error dengan menggunakan derivatif dari fungsi aktivasi

                                         (2.14)

Pengkoreksian bobot dan bias adalah sebagai berikut

                                                     (2.15)

                                                   (2.16)

Sehingga bobot baru pada masing – masing unit output adalah

                                (2.17)

Bobot baru pada unit hidden adalah

                                  (2.18)

Proses akan diakhiri dengan menghitung kesalahan total

                                       (2.19)

Apabila harga kesalahan masih cukup besar maka proses pelatihan diulang dari awal, begitu seterusnya sampai dicapai harga kesalahan minimum. Terdapat beberapa kemungkinan fungsi aktivasi pada sistem :

  1. Fungsi step

                                     (2.20)

  2. Fungsi ramp

                                    (2.21)

  3. Fungsi sigmoid biner

                                     (2.22)

                                  (2.23)

     

    Sigmoid Biner
    Gambar 2.18 Sigmoid Biner (Fauset, 1994)

  4. Fungsi sigmoid bipolar

                                 (2.24)

                         (2.25)

     

    Sigmoid Bipolar
    Gambar 2.19 Sigmoid Bipolar (Fauset, 1994)

Fungsi aktivasi yang umum digunakan adalah fungsi sigmoid biner karena mempunyai beberapa karakteristik yang menguntungkan antara lain dapat bernilai pada setiap titik, bertambah secara monoton dan dapat berfungsi sebagai fungsi squash yaitu menerima input yang tak terhingga nilainya tetapi dapat menghasilkan output pada kawasan terhingga.

Leave a Reply

Your email address will not be published. Required fields are marked *