Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
neurali:funzione_attivazione_softmax [2015/07/09 18:41]
profpro
neurali:funzione_attivazione_softmax [2018/04/25 07:55] (current)
Line 3: Line 3:
 Nella teoria della statistica è una funzione che generalizza la funzione **logistica** su più dimensioni Nella teoria della statistica è una funzione che generalizza la funzione **logistica** su più dimensioni
  
-Mentre la [[neurali:​funzione attivazione ​logistica ​sigmoid]] ha come variabili degli scalari, la funzione softmax ha come variabili dei vettori+Mentre la [[neurali:​funzione attivazione ​logistic ​sigmoid]] ha come variabili degli scalari, la funzione softmax ha come variabili dei vettori
  
 +Si utilizza la funzione softmax come funzione di attivazione del layer di output per convertire una variabile (vettore) continua in una variabile discreta.
  
 +Nei [[neurali:​problemi di classificazione]] binaria si utilizzerà la funzione logistic sigmoid.
  
-Si utilizza la funzione softmax come funzione di attivazione del layer di output per convertire una variabile (vettore) continua in una variabile discreta. +Allora quando ​si usa la funzione ​a gradino? ​
- +
-Nei problemi di classificazione binaria ​si utilizzerà ​la funzione ​logistica.+
  
-Allora quando ​si usa la funzione a gradino?+Penso che si usi solo nell'​output layer
  
  • neurali/funzione_attivazione_softmax.txt
  • Last modified: 2018/04/25 07:55
  • (external edit)