www.wikidata.de-de.nina.az
Im Kontext kunstlicher neuronaler Netze ist ein Rectifier auf deutsch Gleichrichter eine Aktivierungsfunktion eines kunstlichen Neurons die als Positivteil seines Arguments definiert ist Rectifier Aktivierungsfunktion f x max 0 x displaystyle f x max 0 x mit x displaystyle x als Eingangswert des kunstlichen Neurons Diese Aktivierungsfunktion wurde im Jahr 2000 von Hahnloser et al mit starken biologischen Motivationen und mathematischen Begrundungen erstmals bei dynamischen neuronalen Netzwerken eingefuhrt 1 Rektifizierende Aktivierungsfunktionen wurden in der von Behnke vorgeschlagenen Neuronalen Abstraktionspyramide 2 genutzt um spezifische Erregung und unspezifische Hemmung zu trennen Diese hierarchische rekurrente konvolutionale Architektur wurde uberwacht darauf trainiert unterschiedliche Computer Vision Aufgaben iterativ zu losen Es wurde erstmals im Jahr 2011 nachgewiesen dass ein Training tiefer Netzwerke mit rektifizierenden Aktivierungsfunktionen erfolgreicher ist als mit den vor dem Jahr 2011 weit verbreiteten Aktivierungsfunktionen wie z B der Sigmoidfunktion 3 Rectifier sind aktuell Stand 2019 die beliebtesten Aktivierungsfunktionen fur tiefe neuronale Netze 4 Eine Einheit die den Rectifier verwendet wird auch als rectified linear unit ReLU bezeichnet Solche ReLUs finden Anwendung im Deep Learning etwa im maschinellen Sehen 5 und der Spracherkennung 6 Einzelnachweise Bearbeiten Richard H R Hahnloser Rahul Sarpeshkar u a Digital selection and analogue amplification coexist in a cortex inspired silicon circuit In Nature 405 2000 S 947 doi 10 1038 35016072 Sven Behnke Hierarchical Neural Networks for Image Interpretation Lecture Notes in Computer Science Band 2766 Springer 2003 doi 10 1007 b11963 researchgate net Xavier Glorot Antoine Bordes Yoshua Bengio Deep Sparse Rectifier Neural Networks In Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics Proceedings of Machine Learning Research Band 15 PMLR Fort Lauderdale FL USA April 2011 S 315 323 mlr press PDF Dan Becker Rectified Linear Units ReLU in Deep Learning In Kaggle Abgerufen am 19 November 2018 englisch Xavier Glorot Antoine Bordes and Yoshua Bengio Deep sparse rectifier neural networks PDF Nicht mehr online verfugbar 2011 archiviert vom Original am 13 Dezember 2016 abgerufen am 19 November 2018 englisch Laszlo Toth Phone Recognition with Deep Sparse Rectifier Neural Networks PDF Abgerufen am 19 November 2018 englisch Abgerufen von https de wikipedia org w index php title Rectifier neuronale Netzwerke amp oldid 234485474