neurali:error_backpropagation
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revision | |||
neurali:error_backpropagation [2020/06/08 22:20] – external edit 127.0.0.1 | neurali:error_backpropagation [2023/06/06 18:42] (current) – [Precondizionamento] profpro | ||
---|---|---|---|
Line 25: | Line 25: | ||
* **Normalizzare** i dati di input e di output significa avere una gaussiana con media~0 e varianza~1. | * **Normalizzare** i dati di input e di output significa avere una gaussiana con media~0 e varianza~1. | ||
* **Normalizzare** i pesi sinpatici vuol dire usare per i pesi una distribuzione di probabilità uniforme (non gaussiana) da -√1/K a +√1/K, con K= n. nodi entranti in ogni neurone. | * **Normalizzare** i pesi sinpatici vuol dire usare per i pesi una distribuzione di probabilità uniforme (non gaussiana) da -√1/K a +√1/K, con K= n. nodi entranti in ogni neurone. | ||
- | * Molto meglio | + | * Molto meglio |
* **Normalizzare** il learning rate vuol dire che si può partire con questi valori e diminuirli: | * **Normalizzare** il learning rate vuol dire che si può partire con questi valori e diminuirli: | ||
* con unsupervisioned learning λ=1 | * con unsupervisioned learning λ=1 |
neurali/error_backpropagation.1591647603.txt.gz · Last modified: 2020/06/08 22:20 by 127.0.0.1