User Tools

Site Tools


neurali:long_short-term_memory

Long Short-Term Memory

Questo tipo di rete cerca di migliorare le RNN

Nelle reti RNN è possibile memorizzare l'output di alcuni neuroni (facendolo tornare indietro), ma solo per un passo di tempo discreto. Ben presto il valore fornito da un neurone viene mescolato insieme agli altri ed è difficile tenerne conto per l'addestramento.

Viceversa anche i pesi delle RNN cambiano ma molto più lentamente

Questo tipo di rete cerca di allungare la memoria dei neuroni di ben 10 volte o anche più.

Al posto di un neurone di stato (con memoria), contiene un blocco con una struttura che permette di conservare più a lungo le informazioni

Vediamo in dettaglio i blocchi

https://en.wikipedia.org/wiki/File:Lstm_block.svg

La cella centrale (SIGMA) funge da memoria, infatti ha un anello su se stessa.

In basso ci sono gli ingressi, con funzione attivazione logistic sigmoid

Percorrendoli da sinistra verso destra:

  1. input dei dati da elaborare
  2. input gate: ha il potere di modificare il peso della connessione tra esterno e interno del blocco, cioè di decidere quando qualcosa deve entrare nel blocco
  3. fattore?
  4. output gate: ha il potere di modificare il peso della connessione tra interno ed esterno del blocco, cioè di decidere quando qualcosa deve uscire dal blocco
neurali/long_short-term_memory.txt · Last modified: 2020/06/08 22:20 by 127.0.0.1