Chapter 7 - Hopfield Networks


1. Dasar Teori [kembali]

Hopfield Networks

7.1. Introduction

Semua jaringan yang dipertimbangkan hingga saat ini hanya dianggap maju karena dari input ke output, yaitu interkoneksi nonrecurrent. Ini menjamin stabilitas jaringan. Karena jaringan saraf biologis menggabungkan umpan balik, (yaitu, mereka berulang), adalah wajar bahwa jaringan buatan tertentu juga akan menggabungkan fitur tersebut. Jaringan saraf Hopfield [Hopfield, 1982] memang menggunakan umpan-maju dan umpan balik. Setelah umpan balik digunakan, stabilitas tidak dapat dijamin dalam kasus umum. Akibatnya, desain jaringan Hopfield harus menjadi salah satu yang menyumbang stabilitas dalam pengaturannya.

7.2. Biner Hopfield Networks
Gambar 7.1 mengilustrasikan jaringan Hopfield single layer yang berulang. Meskipun pada dasarnya adalah jaringan single-layer, struktur umpan baliknya membuatnya secara efektif berperilaku sebagai jaringan multi-layer. Penundaan dalam umpan balik akan ditunjukkan untuk memainkan peran utama dalam stabilitasnya. Penundaan seperti itu alami untuk jaringan saraf biologis, mencatat penundaan di celah sinaptik dan tingkat yang terbatas dari penembakan neuronal. Sementara jaringan Hopfield dapat terus menerus atau output biner, kami mempertimbangkan pertama jaringan biner Hopfield, untuk memperkenalkan konsep jaringan Hopfield.
Jaringan Gambar. 7,1 sehingga memuaskan
By Eqs. (7.1) dan (7.2), jaringan Hopfield menggunakan struktur dasar neuron individual seperti dalam Perceptron atau Adaline. Namun, oleh Gambar 7.1, ia berangkat dari desain sebelumnya dalam struktur umpan baliknya.
Perhatikan bahwa dua jaringan biner Hopfield neuron dapat dianggap sebagai sistem negara 2n, dengan output milik empat negara mengatur 00, 01, 10, 11 g. Jaringan, ketika diinput oleh vektor input, akan stabil pada salah satu dari keadaan di atas sebagaimana ditentukan oleh konfigurasi beratnya. Vektor masukan yang salah sebagian dapat menyebabkan jaringan ke status terdekat ke yang diinginkan (ke yang terkait) ke vektor masukan yang benar).

7.3. Setting of Weights dalam Hop eld Nets Bidirectional Associative
Prinsip Memori (BAM)
Hopfield networks menggunakan prinsip BAM (Bidirectional Associative Memory). Ini menyiratkan bahwa bobot jaringan diatur untuk memuaskan asosiatif dua arah prinsip memori; pertama kali diusulkan oleh Longuett-Higgins (1968) dan juga oleh Cooper (1973) dan Kohonen (1977) dalam kaitannya dengan struktur lain, sebagai berikut:
Perhatikan  persamaan berikut:
dimana W adalah matriks bobot untuk koneksi antara elemen vektor x dan y. Interkoneksi ini disebut sebagai jaringan asosiatif. Khususnya, ketika yi = xi maka koneksi disebut sebagai autoassociative, yaitu
untuk mengambil xi. Pengaturan ini disebut BAM karena semua xi yang terkait dengan bobot W diambil sedangkan yang lain tidak (menghasilkan keluaran nol). Amati bahwa di atas menyiratkan bahwa W berfungsi sebagai memori yang akan memungkinkan jaringan untuk mengingat vektor input yang sama seperti yang tergabung dalam W. Struktur yang terakhir dapat digunakan untuk merekonstruksi informasi, terutama informasi yang salah atau sebagian tidak lengkap.
Khususnya, jika jaringan single-layer dipertimbangkan, maka:
dari Persamaan. (7.5)
Namun, untuk memenuhi persyaratan stabilitas yang akan dibahas dalam Sec. 7.5 di bawah, kami juga menetapkan:
Jika input tertentu (atau semua) tidak dekat dengan orthogonal, seseorang dapat terlebih dahulu mengubahnya melalui transformasi Walsh seperti pada Sec. 6.4, untuk menghasilkan set ortogonal untuk digunakan lebih lanjut.
Fitur BAM dari Hop eld NN adalah yang memungkinkannya berfungsi dengan set data yang salah atau sebagian hilang.
Contoh 7.1:
Perhatikan:
selama inputnya ortonormal.
Tingkat kedekatan dari suatu pola (masukan vektor) ke memori dievaluasi oleh Hamming Distance [Hamming, 1950, lihat juga: Carlson, 1986, p. 473]. Jumlah istilah di mana kesalahan ada dalam jaringan (terlepas dari besarnya kesalahan) didefinisikan sebagai jarak Hamming untuk jaringan yang menyediakan ukuran jarak antara input dan memori yang dipertimbangkan.
Maka net akan menekankan input yang (hampir) milik set pelatihan yang diberikan dan tidak menekankan input yang tidak (hampir) milik (terkait | karenanya istilah \ BAM ").

7.4. Fungsi Walsh
Fungsi Walsh diusulkan oleh J. L. Walsh pada tahun 1923 (lihat Beauchamp, 1984). Mereka membentuk seperangkat nilai persegi panjang (tangga) yang diberi urutan +1, 1 yang ditentukan selama interval waktu terbatas t. Walsh function WAL (n; t) didefinisikan oleh nomor pemesanan n dan periode waktu t, sehingga:
Oleh karena itu, untuk menerapkan BAM ke memori (vektor) yang tidak orthonormal, kita dapat mentransformasikannya terlebih dahulu untuk mendapatkan transformasi Walsh orthogonal dan kemudian menerapkan BAM pada transformasi ini.


2. Link Download [kembali]
Download pdf
Download HTML

Tidak ada komentar:

Posting Komentar