Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
neurali:funzione_attivazione_softmax [2015/07/05 17:45]
profpro
neurali:funzione_attivazione_softmax [2018/04/25 07:55] (current)
Line 3: Line 3:
 Nella teoria della statistica è una funzione che generalizza la funzione **logistica** su più dimensioni Nella teoria della statistica è una funzione che generalizza la funzione **logistica** su più dimensioni
  
-Mentre la funzione ​logistica ​ha come variabili degli scalari, la funzione softmax ha come variabili dei vettori+Mentre la [[neurali:funzione ​attivazione logistic sigmoid]] ​ha come variabili degli scalari, la funzione softmax ha come variabili dei vettori
  
-  - Nei problemi ​di **classificazione binaria**, si deve determinare se un dato appartiene o non appartiene ad una certa categoria +Si utilizza la funzione softmax come funzione ​di attivazione del layer di output per convertire una variabile (vettore) continua in una variabile discreta.
-  - Nei problemi ​di **classificazione multipla**, si deve determinare a quale categoria appartiene il dato tra le categorie disponibili+
  
 +Nei [[neurali:​problemi di classificazione]] binaria si utilizzerà la funzione logistic sigmoid.
  
-Si utilizza la funzione softmax come funzione di attivazione del layer di output per convertire una variabile (vettore) continua in una variabile discreta. +Allora quando ​si usa la funzione ​a gradino? ​
- +
-Nei problemi di classificazione binaria ​si utilizzerà ​la funzione ​logistica.+
  
-Allora quando ​si usa la funzione a gradino?+Penso che si usi solo nell'​output layer
  
  • neurali/funzione_attivazione_softmax.1436111148.txt.gz
  • Last modified: 2018/04/25 11:24
  • (external edit)