User Tools

Site Tools


neurali:error_backpropagation

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
neurali:error_backpropagation [2020/06/08 22:20] – external edit 127.0.0.1neurali:error_backpropagation [2023/06/06 18:42] (current) – [Precondizionamento] profpro
Line 25: Line 25:
     * **Normalizzare** i dati di input e di output significa avere una gaussiana con media~0 e varianza~1.      * **Normalizzare** i dati di input e di output significa avere una gaussiana con media~0 e varianza~1. 
     * **Normalizzare** i pesi sinpatici vuol dire usare per i pesi una distribuzione di probabilità uniforme (non gaussiana) da -√1/K a +√1/K, con K= n. nodi entranti in ogni neurone.      * **Normalizzare** i pesi sinpatici vuol dire usare per i pesi una distribuzione di probabilità uniforme (non gaussiana) da -√1/K a +√1/K, con K= n. nodi entranti in ogni neurone. 
-    * Molto meglio sare una funzione di attivazione tanh (non sigmoid). +    * Molto meglio usare una funzione di attivazione **tanh** (non sigmoid). 
     * **Normalizzare** il learning rate vuol dire che si può partire con questi valori e diminuirli:     * **Normalizzare** il learning rate vuol dire che si può partire con questi valori e diminuirli:
       * con unsupervisioned learning λ=1       * con unsupervisioned learning λ=1
neurali/error_backpropagation.1591647603.txt.gz · Last modified: 2020/06/08 22:20 by 127.0.0.1