Associa rete di memoria
Questi tipi di reti neurali funzionano sulla base dell'associazione di modelli, il che significa che possono memorizzare diversi modelli e al momento di fornire un output possono produrre uno dei modelli memorizzati abbinandoli al modello di input specificato. Questi tipi di ricordi sono anche chiamatiContent-Addressable Memory(CAMERA). La memoria associativa esegue una ricerca parallela con i modelli memorizzati come file di dati.
Di seguito sono riportati i due tipi di ricordi associativi che possiamo osservare:
- Memoria auto associativa
- Memoria etero associativa
Memoria auto associativa
Questa è una rete neurale a livello singolo in cui il vettore di addestramento di input ei vettori di destinazione di output sono gli stessi. I pesi sono determinati in modo che la rete memorizzi una serie di modelli.
Architettura
Come mostrato nella figura seguente, l'architettura della rete di memoria Auto Associative ha ‘n’ numero di vettori di addestramento in ingresso e simili ‘n’ numero di vettori target di output.
Algoritmo di formazione
Per la formazione, questa rete utilizza la regola di apprendimento Hebb o Delta.
Step 1 - Inizializza tutti i pesi a zero come wij = 0 (i = 1 to n, j = 1 to n)
Step 2 - Eseguire i passaggi 3-4 per ogni vettore di input.
Step 3 - Attivare ciascuna unità di ingresso come segue -
$$ x_ {i} \: = \: s_ {i} \ :( i \: = \: 1 \: to \: n) $$
Step 4 - Attivare ciascuna unità di uscita come segue -
$$ y_ {j} \: = \: s_ {j} \ :( j \: = \: 1 \: a \: n) $$
Step 5 - Regolare i pesi come segue -
$$ w_ {ij} (nuovo) \: = \: w_ {ij} (vecchio) \: + \: x_ {i} y_ {j} $$
Algoritmo di test
Step 1 - Imposta i pesi ottenuti durante l'allenamento per la regola di Hebb.
Step 2 - Eseguire i passaggi 3-5 per ogni vettore di input.
Step 3 - Impostare l'attivazione delle unità di input uguale a quella del vettore di input.
Step 4 - Calcola l'input netto per ciascuna unità di output j = 1 to n
$$ y_ {inj} \: = \: \ displaystyle \ sum \ limits_ {i = 1} ^ n x_ {i} w_ {ij} $$
Step 5 - Applicare la seguente funzione di attivazione per calcolare l'uscita
$$ y_ {j} \: = \: f (y_ {inj}) \: = \: \ begin {case} +1 & if \: y_ {inj} \:> \: 0 \\ - 1 & if \: y_ {inj} \: \ leqslant \: 0 \ end {cases} $$
Memoria etero associativa
Simile alla rete Auto Associative Memory, anche questa è una rete neurale a livello singolo. Tuttavia, in questa rete il vettore di addestramento in ingresso e i vettori di destinazione in uscita non sono gli stessi. I pesi sono determinati in modo che la rete memorizzi una serie di modelli. La rete etero associativa è di natura statica, quindi non ci sarebbero operazioni non lineari e di ritardo.
Architettura
Come mostrato nella figura seguente, l'architettura della rete Hetero Associative Memory ha ‘n’ numero di vettori di addestramento in ingresso e ‘m’ numero di vettori target di output.
Algoritmo di formazione
Per la formazione, questa rete utilizza la regola di apprendimento Hebb o Delta.
Step 1 - Inizializza tutti i pesi a zero come wij = 0 (i = 1 to n, j = 1 to m)
Step 2 - Eseguire i passaggi 3-4 per ogni vettore di input.
Step 3 - Attivare ciascuna unità di ingresso come segue -
$$ x_ {i} \: = \: s_ {i} \ :( i \: = \: 1 \: to \: n) $$
Step 4 - Attivare ciascuna unità di uscita come segue -
$$ y_ {j} \: = \: s_ {j} \ :( j \: = \: 1 \: to \: m) $$
Step 5 - Regolare i pesi come segue -
$$ w_ {ij} (nuovo) \: = \: w_ {ij} (vecchio) \: + \: x_ {i} y_ {j} $$
Algoritmo di test
Step 1 - Imposta i pesi ottenuti durante l'allenamento per la regola di Hebb.
Step 2 - Eseguire i passaggi 3-5 per ogni vettore di input.
Step 3 - Impostare l'attivazione delle unità di input uguale a quella del vettore di input.
Step 4 - Calcola l'input netto per ciascuna unità di output j = 1 to m;
$$ y_ {inj} \: = \: \ displaystyle \ sum \ limits_ {i = 1} ^ n x_ {i} w_ {ij} $$
Step 5 - Applicare la seguente funzione di attivazione per calcolare l'uscita
$$ y_ {j} \: = \: f (y_ {inj}) \: = \: \ begin {case} +1 & if \: y_ {inj} \:> \: 0 \\ 0 & if \ : y_ {inj} \: = \: 0 \\ - 1 & if \: y_ {inj} \: <\: 0 \ end {cases} $$