www.wikidata.de-de.nina.az
Deep Learning deutsch mehrschichtiges Lernen tiefes Lernen 2 oder tiefgehendes Lernen bezeichnet eine Methode des maschinellen Lernens die kunstliche neuronale Netze KNN mit zahlreichen Zwischenschichten englisch hidden layers zwischen Eingabeschicht und Ausgabeschicht einsetzt und dadurch eine umfangreiche innere Struktur herausbildet 3 4 5 Es ist eine spezielle Methode der Informationsverarbeitung Geschichtete Reprasentation von Bildern auf mehreren Abstraktionsebenen 1 Links Eingangsschicht input layer mit in diesem Fall drei Eingangsneuronen Rechts Ausgabeschicht mit den Ausgangsneuronen in diesem Bild zwei Die mittlere Schicht wird als verborgen bezeichnet hidden layer da ihre Neuronen weder Eingange noch Ausgange sind Hier ist nur eine verborgene Schicht zu sehen aber viele Netzwerke haben deutlich mehr Die notwendige Anzahl von Ebenen ab denen man von Deep Learning spricht ist nicht genau festgelegt Inhaltsverzeichnis 1 Voraussetzungen und Grundlagen 2 Geschichte Entwicklung und Verwendung 3 Komplexitat und Grenzen der Erklarbarkeit 4 Programmbibliotheken 5 Literatur 6 Weblinks 7 EinzelnachweiseVoraussetzungen und Grundlagen BearbeitenDie in der Anfangszeit der kunstlichen Intelligenz gelosten Probleme waren fur den Menschen intellektuell schwierig aber fur Computer einfach zu verarbeiten Diese Probleme liessen sich durch formale mathematische Regeln beschreiben Die wahre Herausforderung an die kunstliche Intelligenz bestand jedoch in der Losung von Aufgaben die fur die Menschen leicht durchzufuhren sind deren Losung sich aber nur schwer durch mathematische Regeln formulieren lassen Dies sind Aufgaben die der Mensch intuitiv lost wie zum Beispiel Sprach oder Gesichtserkennung 3 6 Eine computerbasierte Losung fur diese Art von Aufgaben beinhaltet die Fahigkeit von Computern aus der Erfahrung zu lernen und die Welt in Bezug auf eine Hierarchie von Konzepten zu verstehen Hierbei ist jedes Konzept durch seine Beziehung zu einfacheren Konzepten definiert Durch das Sammeln von Wissen aus der Erfahrung vermeidet dieser Ansatz die Notwendigkeit fur die menschlichen Bediener all das Wissen das der Computer fur seine Arbeit benotigt formal spezifizieren zu mussen Die Hierarchie der Konzepte erlaubt es dem Computer komplizierte Konzepte zu erlernen indem er sie aus einfacheren zusammensetzt Wenn man ein Diagramm zeichnet das zeigt wie diese Konzepte ubereinander aufgebaut werden dann ist das Diagramm tief mit vielen Schichten Aus diesem Grund wird dieser Ansatz in der kunstlichen Intelligenz Deep Learning genannt 3 7 Es ist schwierig fur einen Computer die Bedeutung von rohen sensorischen Eingangsdaten zu verstehen wie beispielsweise in der Handschrifterkennung wo ein Text zunachst nur als eine Sammlung von Bildpunkten existiert Die Uberfuhrung einer Menge von Bildpunkten in eine Kette von Ziffern und Buchstaben ist sehr kompliziert Komplexe Muster mussen aus Rohdaten extrahiert werden Das Lernen oder Auswerten dieser Zuordnung scheint unuberwindbar schwierig wenn sie manuell programmiert werden wurde 3 Eine der haufigsten Techniken in der kunstlichen Intelligenz ist maschinelles Lernen Maschinelles Lernen ist ein selbstadaptiver Algorithmus Deep Learning eine Teilmenge des maschinellen Lernens nutzt eine Reihe hierarchischer Schichten bzw eine Hierarchie von Konzepten um den Prozess des maschinellen Lernens durchzufuhren Die hierbei benutzten kunstlichen neuronalen Netze sind wie das menschliche Gehirn gebaut wobei die Neuronen wie ein Netz miteinander verbunden sind Die erste Schicht des neuronalen Netzes die sichtbare Eingangsschicht verarbeitet eine Rohdateneingabe wie beispielsweise die einzelnen Pixel eines Bildes Die Dateneingabe enthalt Variablen die der Beobachtung zuganglich sind daher sichtbare Schicht 3 Diese erste Schicht leitet ihre Ausgaben an die nachste Schicht weiter Diese zweite Schicht verarbeitet die Informationen der vorherigen Schicht und gibt das Ergebnis ebenfalls weiter Die nachste Schicht nimmt die Informationen der zweiten Schicht entgegen und verarbeitet sie weiter Diese Schichten werden als versteckte Ebenen englisch hidden layers bezeichnet Die in ihnen enthaltenen Merkmale werden zunehmend abstrakt Ihre Werte sind nicht in den Ursprungsdaten angegeben Stattdessen muss das Modell bestimmen welche Konzepte fur die Erklarung der Beziehungen in den beobachteten Daten nutzlich sind Dies geht uber alle Ebenen des kunstlichen neuronalen Netzes so weiter Das Ergebnis wird in der sichtbaren letzten Schicht ausgegeben Hierdurch wird die gewunschte komplizierte Datenverarbeitung in eine Reihe von verschachtelten einfachen Zuordnungen unterteilt die jeweils durch eine andere Schicht des Modells beschrieben werden 3 4 7 8 Geschichte Entwicklung und Verwendung BearbeitenDie Group method of data handling KNNs GMDH ANN der 1960er Jahre von Oleksij Iwachnenko waren die ersten Deep Learning Systeme des Feedforward Multilayer Perzeptron Typs 9 10 11 Karl Steinbuchs Lernmatrix 12 war eines der ersten kunstlichen neuronalen Netze das aus mehreren Schichten von Lerneinheiten oder lernenden Neuronen bestand Damit war er einer der Wegbereiter des Deep Learning bei dem es um tiefe neuronale Netze geht die viele Aufgaben erlernen konnen bei denen fruheren einschichtige Perzeptronen scheitern Weitere Deep Learning Ansatze vor allem aus dem Bereich des maschinellen Sehens begannen mit dem Neocognitron einer Convolutional Neural Network CNN Architektur die von Kunihiko Fukushima 1980 entwickelt wurde 13 Alex Waibels CNN namens TDNN 1987 wurde durch backpropagation trainiert und erzielte Bewegungsinvarianz 14 Im Jahr 1989 verwendeten Yann LeCun und Kollegen den Backpropagation Algorithmus fur das Training mehrschichtiger KNNs siehe Multi Layer Perzeptron mit dem Ziel handgeschriebene Postleitzahlen zu erkennen 15 Sven Behnke hat seit 1997 in der Neuronalen Abstraktionspyramide 16 den vorwartsgerichteten hierarchisch konvolutionalen Ansatz durch seitliche und ruckwartsgerichtete Verbindungen erweitert um so flexibel Kontext in Entscheidungen einzubeziehen und iterativ lokale Mehrdeutigkeiten aufzulosen Der Begriff Deep Learning wurde im Kontext des maschinellen Lernens erstmals 1986 von Rina Dechter verwendet wobei sie hiermit ein Verfahren bezeichnet bei dem alle verwendeten Losungen eines betrachteten Suchraums aufgezeichnet werden die zu keiner gewunschten Losung gefuhrt haben Die Analyse dieser aufgezeichneten Losungen soll es ermoglichen anschliessende Versuche besser zu steuern und somit mogliche Sackgassen in der Losungsfindung fruhzeitig zu verhindern 17 Heutzutage wird der Begriff jedoch vorwiegend im Zusammenhang mit kunstlichen neuronalen Netzen verwendet und tauchte in diesem Kontext erstmals im Jahr 2000 auf in der Veroffentlichung Multi Valued and Universal Binary Neurons Theory Learning and Applications von Igor Aizenberg und Kollegen 18 19 20 Zwischen 2009 und 2012 gewannen die rekurrenten bzw tiefen vorwartsgerichteten neuronalen Netze der Forschungsgruppe von Jurgen Schmidhuber am Schweizer KI Labor IDSIA eine Serie von acht internationalen Wettbewerben in den Bereichen Mustererkennung und maschinelles Lernen 21 Insbesondere gewannen ihre rekurrenten LSTM Netze 22 23 drei Wettbewerbe zur verbundenen Handschrifterkennung bei der 2009 Intl Conf on Document Analysis and Recognition ICDAR ohne eingebautes A priori Wissen uber die drei verschiedenen zu lernenden Sprachen Die LSTM Netze erlernten gleichzeitige Segmentierung und Erkennung Dies waren die ersten internationalen Wettbewerbe die durch Deep Learning 24 oder durch rekurrente Netze gewonnen wurden Die jungsten Erfolge von Deep Learning Methoden wie der Go Turniergewinn des Programmes AlphaGo gegen die weltbesten menschlichen Spieler grunden sich neben der gestiegenen Verarbeitungsgeschwindigkeit der Hardware auf den Einsatz von Deep Learning zum Training des in AlphaGo verwendeten neuronalen Netzes 25 Gleiches gilt fur die seit 2020 gelungene Vorhersage von Protein Faltungen 26 Diese Netze nutzen kunstlich erzeugte Neuronen Perzeptron um Muster zu erkennen Fur Beitrage zu neuronalen Netzwerken und Deep Learning erhielten Yann LeCun Yoshua Bengio und Geoffrey Hinton 2018 den Turing Award 27 Komplexitat und Grenzen der Erklarbarkeit BearbeitenTiefe neuronale Netze konnen eine Komplexitat von bis zu hundert Millionen einzelnen Parametern und zehn Milliarden Rechenoperationen pro Eingangsdatum aufweisen Die Interpretierbarkeit der Parameter und Erklarbarkeit des Zustandekommens der Ergebnisse ist hier nur noch eingeschrankt moglich und erfordert den Einsatz spezieller Techniken die unter Explainable Artificial Intelligence zusammengefasst werden Ein weiterer Ansatz ist die Verwendung von Methoden aus der Physik von Vielteilchensysteme Statistische Physik 28 Eine weitere Begleiterscheinung des Deep Learning ist die Anfalligkeit fur Falschberechnungen die durch subtile bei zum Beispiel Bildern fur Menschen nicht sichtbare Manipulationen der Eingabesignale ausgelost werden konnen Dieses Phanomen wird unter Adversarial Examples zusammengefasst 29 Es gibt zwei Konzepte zu Grenzen und Erklarbarkeit Opake KI und transparente KI Ersteres Opake KI beinhaltet neuronale Netze Deep Learning genetische Algorithmen etc Bei beiden Konzepten ist gemeinsam dass die Logik dahinter inkl der Vorhersagen und Entscheidungen nicht einfach ausgedruckt werden kann Transparente KI kann hingegen jedoch die Entscheidungen erklaren und fur den Menschen verstandlich machen Die Entscheidung fur oder gegen eines der beiden Konzepte endet schnell in ethischen und moralischen Vorstellungen Ohne einen T Switch fur vertrauensvoll oder transparent ist Opake KI kaum zu kontrollieren Je mehr Daten in einem Opaque System verwendet werden Big Data umso eher wird die kunstliche Intelligenz ein Wertesystem fur sich selbst entwickeln welche die Menschen nicht mehr verstehen konnen Ein T Switch ermoglicht es bewusste Entscheidungen durch die Opake KI zu erlauben und an welcher Stelle man auf Transparenz bestehen sollte Alles in allem betrachtet hat Opake KI einen Nachteil Im Jahr 2016 hat Microsoft ein Experiment durchgefuhrt In weniger als in 24 Stunden wurden sehr negative Ergebnisse bei der Veroffentlichung von einem Twitter Chatbot namens Tay erzielt Transparente KI hingegen unterstutzt eine exakte Erklarung So kann immer die Entscheidung nachvollzogen werden Programmbibliotheken BearbeitenNeben der meist in Schulungsbeispielen zum Verstandnis der internen Struktur vorgestellten Moglichkeit ein neuronales Netz komplett eigenhandig zu programmieren gibt es eine Reihe von Softwarebibliotheken 30 haufig Open Source lauffahig auf meist mehreren Betriebssystemplattformen die in gangigen Programmiersprachen wie zum Beispiel C C Java oder Python geschrieben sind Einige dieser Programmbibliotheken unterstutzen GPUs oder TPUs zur Rechenbeschleunigung oder stellen Tutorials zur Benutzung dieser Bibliotheken bereit Mit ONNX konnen Modelle zwischen einigen dieser Tools ausgetauscht werden TensorFlow Python JavaScript C Java Go Swift von Google Keras Python ab Version 1 4 0 auch in der TensorFlow API enthalten 31 populares Framework 2018 neben Tensorflow 32 Caffe vom Berkeley Vision and Learning Center BVLC PyTorch Python entwickelt vom Facebook Forschungsteam fur kunstliche Intelligenz Torch C Lua 33 Community und das darauf aufbauende Facebook Framework Torchnet 34 Microsoft Cognitive Toolkit C 35 PaddlePaddle Python vom Suchmaschinenhersteller Baidu 36 37 OpenNN C implementiert ein kunstliches neuronales Netz Theano Python von der Universite de Montreal 38 Deeplearning4j Java von Skymind MXNet von der Apache Software Foundation 39 Literatur BearbeitenFrancois Chollet Deep Learning mit Python und Keras Das Praxis Handbuch vom Entwickler der Keras Bibliothek mitp 2018 ISBN 978 3 95845 838 3 Ian Goodfellow Yoshua Bengio Aaron Courville Deep Learning Adaptive Computation and Machine Learning MIT Press Cambridge USA 2016 ISBN 978 0 262 03561 3 Jurgen Schmidhuber Deep learning in neural networks An overview In Neural Networks 61 2015 S 85 arxiv 1404 7828 cs NE Rob F Walker Artifical Intelligence in Business Balancing Risk and Reward 2017 Seite 1 23 Weblinks Bearbeiten nbsp Commons Deep learning Sammlung von Bildern Videos und Audiodateien Luis Serrano A friendly introduction to Deep Learning and Neural Networks auf YouTube 26 Dezember 2016 abgerufen am 7 November 2018 Deep Learning Einfuhrung Ubersichtsartikel zum Thema Deep Learning Thema Deep Learning heise online Deep Learning Wie Maschinen lernen spektrum de Ubersetzung des Artikels The learning machines In Nature 505 S 146 148 2014Einzelnachweise Bearbeiten Hannes Schulz Sven Behnke Deep Learning Layer Wise Learning of Feature Hierarchies In KI Kunstliche Intelligenz Band 26 Nr 4 November 2012 ISSN 0933 1875 S 357 363 doi 10 1007 s13218 012 0198 z springer com abgerufen am 13 Januar 2020 Herbert Bruderer Erfindung des Computers Elektronenrechner Entwicklungen in Deutschland England und der Schweiz In Meilensteine der Rechentechnik 2 vollig neu bearbeitete und stark erweiterte Auflage Band 2 De Gruyter 2018 ISBN 978 3 11 060261 6 Worterverzeichnis zur Technikgeschichte S 408 eingeschrankte Vorschau in der Google Buchsuche abgerufen am 23 November 2019 a b c d e f Ian Goodfellow Yoshua Bengio Aaron Courville Deep Learning MIT Press abgerufen am 19 Februar 2017 englisch a b David Kriesel Ein kleiner Uberblick uber Neuronale Netze PDF 6 1 MB In dkriesel com 2005 abgerufen am 21 Januar 2019 Li Deng Dong Yu Deep Learning Methods and Applications 1 Mai 2014 microsoft com abgerufen am 17 Mai 2020 Mathias Schuh Lukas Friehoff Deep Learning im Rechtsmarkt In LEGAL REVOLUTIONary 23 Mai 2019 abgerufen am 23 August 2021 a b Michael Nielsen Neural Networks and Deep Learning Determination Press abgerufen am 21 Februar 2017 englisch Li Deng Dong Yu Deep Learning Methods and Applications In Microsoft Research Hrsg Foundations and Trends in Signal Processing Volume 7 Issues 3 4 1 Mai 2014 ISSN 1932 8346 englisch microsoft com abgerufen am 22 Februar 2017 Ivakhnenko A G and Lapa V G 1965 Cybernetic Predicting Devices CCM Information Corpo ration Jurgen Schmidhuber Deep learning in neural networks An overview In Neural Networks 61 2015 S 85 arxiv 1404 7828 cs NE Jurgen Schmidhuber Critique of Paper by Deep Learning Conspiracy Nature 521 p 436 In people idsia ch Juni 2015 abgerufen am 12 April 2019 Karl Steinbuch Die Lernmatrix In Kybernetik 1 1 36 45 1961 Kunihiko Fukushima Neocognitron A Self organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position In Biological Cybernetics 36 Jahrgang Nr 4 1980 S 193 202 doi 10 1007 BF00344251 princeton edu PDF Alex Waibel Phoneme Recognition Using Time Delay Neural Networks Meeting of the Institute of Electrical Information and Communication Engineers IEICE Tokyo Japan 1987 1987 englisch Yann LeCun et al Backpropagation Applied to Handwritten Zip Code Recognition Neural Computation 1 pp 541 551 1989 abgerufen am 11 Mai 2020 Sven Behnke Hierarchical Neural Networks for Image Interpretation Lecture Notes in Computer Science Band 2766 Springer Berlin Heidelberg Berlin Heidelberg 2003 ISBN 978 3 540 40722 5 doi 10 1007 b11963 springer com abgerufen am 28 November 2020 Rina Dechter Learning while searching in constraint satisfaction problems PDF 531 kB In fmdb cs ucla edu University of California Computer Science Department Cognitive Systems Laboratory 1985 abgerufen am 9 Juli 2020 englisch Horvath amp Partners Kunstliche Intelligenz wird alles andern ab 0 11 30 auf YouTube 9 Mai 2016 abgerufen am 6 November 2018 Vortrag von Jurgen Schmidhuber Jurgen Schmidhuber Deep Learning since 1991 In people idsia ch 31 Marz 2017 abgerufen am 1 Dezember 2018 Igor Aizenberg Naum N Aizenberg Joos P L Vandewalle Multi Valued and Universal Binary Neurons Theory Learning and Applications Springer Science amp Business Media 2013 ISBN 978 1 4757 3115 6 google com 2012 Kurzweil AI Interview Memento vom 31 August 2018 im Internet Archive mit Jurgen Schmidhuber zu den acht Wettbewerben die sein Deep Learning Team zwischen 2009 und 2012 gewann Alex Graves Jurgen Schmidhuber Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks In Yoshua Bengio Dale Schuurmans John Lafferty Chris K I Williams Aron Culotta Hrsg Advances in Neural Information Processing Systems 22 NIPS 22 December 7th 10th 2009 Vancouver BC Neural Information Processing Systems NIPS Foundation 2009 S 545 552 A Graves M Liwicki S Fernandez R Bertolami H Bunke J Schmidhuber A Novel Connectionist System for Improved Unconstrained Handwriting Recognition IEEE Transactions on Pattern Analysis and Machine Intelligence Band 31 Nr 5 2009 Y Bengio Learning Deep Architectures for AI Memento vom 21 Marz 2014 im Internet Archive Now Publishers 2009 Demis Hassabis AlphaGo using machine learning to master the ancient game of Go In blog google Google 27 Januar 2016 abgerufen am 16 Juli 2017 englisch AlphaFold a solution to a 50 year old grand challenge in biology In deepmind com 30 November 2020 abgerufen am 19 Dezember 2020 englisch Alexander Neumann Deep Learning Turing Award fur Yoshua Bengio Geoffrey Hinton und Yann LeCun heise online In heise de 28 Marz 2019 abgerufen am 29 Marz 2019 John Hertz Anders Krogh Richard G Palmer Introduction to the theory of neural computation Santa Fe Institute studies in the sciences of complexity Lecture notes Nr 1 Addison Wesley Reading Mass 1999 ISBN 978 0 201 51560 2 Leilani H Gilpin David Bau Ben Z Yuan Ayesha Bajwa Michael Specter Explaining Explanations An Overview of Interpretability of Machine Learning In 2018 IEEE 5th International Conference on Data Science and Advanced Analytics DSAA IEEE Turin 2018 ISBN 978 1 5386 5090 5 S 80 89 doi 10 1109 DSAA 2018 00018 ieee org abgerufen am 8 Dezember 2019 Dan Clark Top 16 Open Source Deep Learning Libraries and Platforms KDnuggets April 2018 abgerufen am 8 Januar 2019 englisch Keras Documentation In Keras Deep Learning library for Theano and TensorFlow Abgerufen am 6 Marz 2017 englisch Why use Keras In keras io Abgerufen am 8 Januar 2020 englisch Keras is also a favorite among deep learning researchers coming in 2 in terms of mentions in scientific papers uploaded to the preprint server arXiv org Keras has also been adopted by researchers at large scientific organizations in particular CERN and NASA Torch Scientific computing for LuaJIT Abgerufen am 17 Februar 2017 englisch Rainald Menge Sonnentag Maschinelles Lernen Facebook veroffentlicht Open Source Framework fur Torch In heise de 24 Juni 2016 abgerufen am 17 Februar 2017 The Microsoft Cognitive Toolkit In microsoft com Abgerufen am 11 August 2017 amerikanisches Englisch Startseite In paddlepaddle org Abgerufen am 17 Februar 2017 englisch Alexander Neumann Baidu gibt Deep Learning System als Open Source frei In heise de 2 September 2016 abgerufen am 17 Februar 2017 Theano Nicht mehr online verfugbar In deeplearning net Archiviert vom Original am 8 November 2020 abgerufen am 20 September 2019 englisch nbsp Info Der Archivlink wurde automatisch eingesetzt und noch nicht gepruft Bitte prufe Original und Archivlink gemass Anleitung und entferne dann diesen Hinweis 1 2 Vorlage Webachiv IABot deeplearning net Apache MXNet Incubating A flexible and efficient library for deep learning In mxnet apache org Abgerufen am 5 September 2019 englisch Abgerufen von https de wikipedia org w index php title Deep Learning amp oldid 235696301