Aktivační funkce

Z testwiki
Skočit na navigaci Skočit na vyhledávání
V levém sloupci sigmoida spolu se svými limitními případy, v pravém sloupci možné transformace dat přiváděných na vstupní resp. výstupní neurony.

Aktivační (přenosová) funkce neuronu v umělých neuronových sítích definuje výstup neuronu při zadání sady vstupů neuronu.[1] Nelineární aktivační funkce umožňují neuronovým sítím řešit netriviální, nelineární problémy. Klasická nelineární funkce je sigmoida o parametrech strmosti (určující šířku pásma citlivosti neuronu na svůj aktivační potenciál) a prahové hodnoty (určující posunutí počátku funkce) spolu s jejími limitními tvary jako je linearita pro strmost blížící se nekonečnu a ostrá nelinearita pro strmost blížící se nule:

f(x)=1(1+ep(xϑ)) pak limp0f(x)=12 a pro x<0 resp. pro x>0 dostaneme limpf(x)=0 resp. limpf(x)=1

Volbou aktivační funkce neuronů vstupní resp. výstupní vrstvy neuronové sítě můžeme určit způsob transformace dat na síť přiváděných:

  • Sigmoida: f(x)=(1+ep(xϑ))1 - z ad 1) a ad 2) (viz níže) plyne p=ln0,95ln0,053σ1σ

ad 1) z 0,95=(1+e3pσ)1 plyne e3pσ=0,050,95

ad 2) z 0,05=(1+e3pσ)1 plyne e3pσ=0,950,05

  • Gaussova křivka: g(x)=ep(xϑ)2 - z 0,05=ep6σ2 plyne p=ln0,056σ212σ2
  • Mexický klobouk: h(x)=σ2g(x) - uvedené transformaci resp. její nezáporné části odpovídají různá pásma citlivosti.

Parametry uvedených transformací mají následující význam:

ϑ – střední hodnota dat přiváděných na daný neuron z trénovací množiny

σ – směrodatná odchylka dat přiváděných na daný neuron z trénovací množiny

Kromě uvedených aktivačních funkcí se užívají ještě jejich různé modifikace:

  • Identita - linearita modifikovaná posunutím středu symetrie do počátku
  • Hyperbolická tangenta - rozšíření oboru hodnot sigmoidy na interval od -1 do +1
  • ReLU - složení ostré linearity (vlevo od počátku) s identitou (vpravo od počátku)
  • Radiální báze - Gaussova křivka resp. Mexický klobouk

Reference

Literatura

Šablona:Autoritní data