Aktivasyon fonksiyonu

Yapay sinir ağındaki bir nöronun aktivasyon fonksiyonu, nöronun girdilerinden gelen değerlerin toplamını kullanarak nöronun çıktısını hesaplamaya yardımcı olan matematiksel fonksiyondur. Aktivasyon fonksiyonu doğrusal olmadığı sürece, sadece birkaç nöron kullanılarak bile karmaşık problemler çözülebilir.[1]

Aktivasyon Fonksiyonları Tablosu

değiştir
İsmi Grafik Fonksiyon,    'nin türevi,   Değer Kümesi Süreklilik Sırası
Birim Fonksiyon (identity)          
Heaviside basamak fonksiyonu (binary step)          
Lojistik fonksiyon (sigmoid, softstep)          
Hiperbolik tanjant (tanh)          
Soboleva eklentili hiperbolik tanjant (smht)        
Doğrultulmuş Lineer birim (ReLU)[2]          
Gaussian Error Lineer birim (GELU)[3]          
Softplus[4]          
Üstel lineer birim (ELU)[5]    
  parametresi ile
     
Ölçeklenmiş üstel lineer birim (SELU)[6]    
  ve   parametreleri ile
     
Leaky doğrultulmuş lineer birim (Leaky ReLU)[7]          
Parametrik doğrultulmuş lineer birim (PReLU)[8]    
  parametresi ile
     
Sigmoid lineer birim (SiLU,[3] Sigmoid shrinkage,[9] SiL,[10] or Swish-1[11])          
Üstel lineer sigmoid squashing (ELiSH)[12]  
Gauss Fonksiyonu          
Sinusoid        
Softmax   ; i = 1, …, J      
Maxout[13]        
^ Yukarıdaki  , Kronecker Deltası'dır.
^ Örneğin;   önceki sinir ağı katmanının çekirdekleri (kernel) arasında yineleme yaparken,   mevcut katmanın çekirdekleri arasında yineleme yapıyor olabilir.

Ayrıca Bakınız

değiştir

Kaynakça

değiştir
  1. ^ Neural Networks (PDF) (İngilizce). Knut Hinkelmann. 6 Ekim 2018 tarihinde kaynağından (PDF) arşivlendi. Erişim tarihi: 7 Ekim 2024. 
  2. ^ Nair, Vinod; Hinton, Geoffrey E. (2010), "Rectified Linear Units Improve Restricted Boltzmann Machines", 27th International Conference on International Conference on Machine Learning, ICML'10, ABD: Omnipress, ss. 807-814, ISBN 9781605589077 
  3. ^ a b Kaynak hatası: Geçersiz <ref> etiketi; ReferenceA isimli refler için metin sağlanmadı (Bkz: Kaynak gösterme)
  4. ^ Glorot, Xavier; Bordes, Antoine; Bengio, Yoshua (2011). "Deep sparse rectifier neural networks" (PDF). International Conference on Artificial Intelligence and Statistics. 17 Mayıs 2017 tarihinde kaynağından (PDF) arşivlendi. 
  5. ^ Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp (23 Kasım 2015). "Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs)". arXiv:1511.07289 $2. 
  6. ^ Klambauer, Günter; Unterthiner, Thomas; Mayr, Andreas; Hochreiter, Sepp (8 Haziran 2017). "Self-Normalizing Neural Networks". Advances in Neural Information Processing Systems. 30 (2017). arXiv:1706.02515 $2. 
  7. ^ Maas, Andrew L.; Hannun, Awni Y.; Ng, Andrew Y. (June 2013). "Rectifier nonlinearities improve neural network acoustic models". Proc. ICML. 30 (1). 
  8. ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (6 Şubat 2015). "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification". arXiv:1502.01852 $2. 
  9. ^ Atto, Abdourrahmane M.; Pastor, Dominique; Mercier, Grégoire (2008), "Smooth sigmoid wavelet shrinkage for non-parametric estimation" (PDF), 2008 IEEE International Conference on Acoustics, Speech and Signal Processing, ss. 3265-3268, doi:10.1109/ICASSP.2008.4518347, ISBN 978-1-4244-1483-3 
  10. ^ Elfwing, Stefan; Uchibe, Eiji; Doya, Kenji (2018). "Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning". Neural Networks. Cilt 107. ss. 3-11. arXiv:1702.03118 $2. doi:10.1016/j.neunet.2017.12.012. PMID 29395652. 
  11. ^ Ramachandran, Prajit; Zoph, Barret; Le, Quoc V (2017). "Searching for Activation Functions". arXiv:1710.05941 $2. 
  12. ^ Basirat, Mina; Roth, Peter M. (2 Ağustos 2018), The Quest for the Golden Activation Function, doi:10.48550/arXiv.1808.00783, 28 Mart 2023 tarihinde kaynağından arşivlendi, erişim tarihi: 5 Ekim 2024 
  13. ^ Goodfellow, Ian J.; Warde-Farley, David; Mirza, Mehdi; Courville, Aaron; Bengio, Yoshua (2013). "Maxout Networks". JMLR Workshop and Conference Proceedings. 28 (3). ss. 1319-1327. arXiv:1302.4389 $2.