Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Next revision
Previous revision
neurali:fann_train_enum [2015/02/03 16:33]
profpro created
neurali:fann_train_enum [2018/04/25 07:55] (current)
Line 23: Line 23:
  
   - FANN_TRAIN_INCREMENTAL standard backpropagation,​ i pesi sono aggiornati dopo ogni addestramento,​ più volte durante una [[neurali:​epoca]]. è veloce ma non funziona per tutti i problemi.   - FANN_TRAIN_INCREMENTAL standard backpropagation,​ i pesi sono aggiornati dopo ogni addestramento,​ più volte durante una [[neurali:​epoca]]. è veloce ma non funziona per tutti i problemi.
-  - FANN_TRAIN_BATCH standard backpropagation,​ i pesi sono aggiornati dopo il calcolo del [[neurali::​errore quadratico medio]] di tutti gli addestramenti. una sola volta per ogni epoca. è lento, ma è migliore dell'​addestramento incrementale per alcuni problemi.+  - FANN_TRAIN_BATCH standard backpropagation,​ i pesi sono aggiornati dopo il calcolo del (MSE) [[neurali::​errore quadratico medio]] di tutti gli addestramenti. una sola volta per ogni epoca. è lento, ma è migliore dell'​addestramento incrementale per alcuni problemi.
   - FANN_TRAIN_RPROP addestramento avanzato di gruppo, buono per molti problemi. RPROP è adattivo (Riedmiller and Braun, 1993), quindi non usa [[neurali:​learning rate]]. Quello effettivamente usato qui è iRPROP (Igel and Husken, 2000)    - FANN_TRAIN_RPROP addestramento avanzato di gruppo, buono per molti problemi. RPROP è adattivo (Riedmiller and Braun, 1993), quindi non usa [[neurali:​learning rate]]. Quello effettivamente usato qui è iRPROP (Igel and Husken, 2000) 
   - FANN_TRAIN_QUICKPROP addestramento avanzato di gruppo, buono per molti problemi. Usa learning rate (Fahlman, 1988).   - FANN_TRAIN_QUICKPROP addestramento avanzato di gruppo, buono per molti problemi. Usa learning rate (Fahlman, 1988).
  
  • neurali/fann_train_enum.txt
  • Last modified: 2018/04/25 07:55
  • (external edit)