neurali:multi-layer
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
neurali:multi-layer [2015/07/09 15:59] – profpro | neurali:multi-layer [2023/06/09 14:55] (current) – [Bias unit] profpro | ||
---|---|---|---|
Line 1: | Line 1: | ||
+ | ======Multilayer====== | ||
+ | http:// | ||
+ | |||
+ | Nella seguente figura è mostrata una rete composta da due strati di neuroni (hidden layer, in verde). | ||
+ | |||
+ | {{: | ||
+ | |||
+ | Le reti neurali con uno o più hidden layer con più neuroni, sono anche **non lineari** | ||
+ | |||
+ | Quindi forniranno come soluzione l' | ||
+ | |||
+ | Abbiamo visto che i pesi sinaptici nelle reti lineari si possono calcolare analiticamente perché la soluzione è lineare. Ad esempio, usando la regressione lineare, poiché la funzione [[neurali: | ||
+ | |||
+ | Nelle reti non lineari per minimizzare l' | ||
+ | |||
+ | Applicando un algoritmo [[neurali: | ||
+ | |||
+ | ==== ? ==== | ||
+ | |||
+ | Quanti hidden layer servono per un certo problema di imitazione? | ||
+ | |||
+ | - ne basta uno! | ||
+ | | ||
+ | Quanti neuroni per ogni layer? | ||
+ | |||
+ | - con un neurone su un hidden layer si ottiene una imitazione della stessa funzione di attivazione | ||
+ | - con due neuroni su un hidden layer si ottiene una imitazione della somma dei grafici di due funzioni di attivazione | ||
+ | - ecc. | ||
+ | |||
+ | NOTA: Attenzione a non esagerare con il numero di neuroni : problema [[neurali: | ||
+ | |||
+ | ====Bias unit==== | ||
+ | |||
+ | Sia nelle reti single layer che multi layer, ci sono un quarto tipo di neuroni (o unità neurali) | ||
+ | (oltre ai tre già visti: input, hidden e output): | ||
+ | |||
+ | - **bias unit** | ||
+ | |||
+ | {{: | ||
+ | |||
+ | Essi generano un output costante pari ad uno, ed hanno un proprio peso sinaptico. | ||
+ | |||
+ | Esiste un bias unit per ogni neurone che non appartiene all' |