www.wikidata.de-de.nina.az
Kunstliche neuronale Netze auch kunstliche neuronale Netzwerke kurz KNN englisch artificial neural network ANN sind Netze aus kunstlichen Neuronen Sie sind Forschungsgegenstand der Neuroinformatik und stellen einen Zweig der kunstlichen Intelligenz dar Vereinfachte Darstellung eines kunstlichen neuronalen NetzesKunstliche neuronale Netze haben ebenso wie kunstliche Neuronen ein biologisches Vorbild Man stellt sie naturlichen neuronalen Netzen gegenuber die eine Vernetzung von Neuronen im Nervensystem eines Lebewesens darstellen Bei KNNs geht es allerdings mehr um eine Abstraktion Modellbildung von Informationsverarbeitung weniger um das Nachbilden biologischer neuronaler Netze und Neuronen was eher Gegenstand der Computational Neuroscience ist Es ist jedoch zu beobachten dass die Grenzen zwischen diesen Teildisziplinen zunehmend verschwinden was auf die nach wie vor grosse Dynamik und Interdisziplinaritat dieses Forschungszweigs zuruckzufuhren ist KNNs sind universelle Funktionsapproximatoren Beim Trainieren des Netzes werden dabei die Gewichte anhand einer Fehlerfunktion aktualisiert Inhaltsverzeichnis 1 Beschreibung 2 Geschichtliche Entwicklung 2 1 Anfange 2 2 Erste Blutezeit 2 3 Langsamer Wiederaufbau 2 4 Renaissance 2 5 Neue Erfolge in Mustererkennungswettbewerben seit 2009 3 Topologie der Verbindungsnetze 3 1 Typische Strukturen 4 Funktionsweise 4 1 Kunstliche Neuronen 4 2 Fehlerfunktion 4 3 Fehlerruckfuhrung 4 4 Optimierung 5 Anwendung 5 1 Implementierungen 6 Biologische Motivation 7 Klassen und Typen von KNN 8 Aktivierungsfunktion 9 Lernverfahren 9 1 Uberwachtes Lernen supervised learning 9 2 Unuberwachtes Lernen unsupervised learning 9 3 Bestarkendes Lernen reinforcement learning 9 4 Stochastisches Lernen 10 Allgemeine Probleme 11 Filmische Dokumentationen 12 Siehe auch 13 Literatur 14 Weblinks 15 EinzelnachweiseBeschreibung BearbeitenKunstliche neuronale Netze basieren meist auf der Vernetzung vieler McCulloch Pitts Neuronen oder leichter Abwandlungen davon Grundsatzlich konnen auch andere kunstliche Neuronen Anwendung in KNNen finden z B das High Order Neuron Die Topologie eines Netzes die Zuordnung von Verbindungen zu Knoten muss abhangig von seiner Aufgabe gut durchdacht sein Nach der Konstruktion eines Netzes folgt die Trainingsphase in der das Netz lernt Theoretisch kann ein Netz durch folgende Methoden lernen Entwicklung neuer Verbindungen Loschen existierender Verbindungen Andern der Gewichtung der Gewichte w i j w ij von Neuron j j zu Neuron i i Anpassen der Schwellenwerte der Neuronen sofern diese Schwellenwerte besitzen Hinzufugen oder Loschen von Neuronen Modifikation von Aktivierungs Propagierungs oder AusgabefunktionAusserdem verandert sich das Lernverhalten bei Veranderung der Aktivierungsfunktion der Neuronen oder der Lernrate des Netzes Praktisch gesehen lernt ein Netz hauptsachlich durch Modifikation der Gewichte der Neuronen Eine Anpassung des Schwellwertes kann hierbei durch ein on Neuron miterledigt werden Dadurch sind KNNs in der Lage komplizierte nichtlineare Funktionen uber einen Lern Algorithmus der durch iterative oder rekursive Vorgehensweise aus vorhandenen Ein und gewunschten Ausgangswerten alle Parameter der Funktion zu bestimmen versucht zu erlernen KNNs sind dabei eine Realisierung des konnektionistischen Paradigmas da die Funktion aus vielen einfachen gleichartigen Teilen besteht Erst in ihrer Summe kann das Verhalten im Zusammenspiel sehr vieler beteiligter Teile komplex werden Neuronale Netze stellen von der Berechenbarkeit her ein aquivalentes Modell zur Turingmaschine dar falls sie deterministisch beschrieben werden und Ruckkopplungen erlaubt sind 1 D h zu jedem Netz gibt es mindestens eine Turingmaschine und zu jeder Turingmaschine gibt es mindestens ein Netz mit Ruckkopplung Bei einer stochastischen Beschreibung ist dies nicht der Fall Rekurrente Netze sind damit die ausdrucksstarkste Form Typ 0 in der Chomsky Hierarchie Geschichtliche Entwicklung BearbeitenDas Interesse fur kunstliche neuronale Netze setzte bereits in den fruhen 1940er Jahren ein also etwa gleichzeitig mit dem Einsatz programmierbarer Computer in angewandter Mathematik 2 Anfange Bearbeiten Die Anfange gehen auf Warren McCulloch und Walter Pitts zuruck Diese beschreiben 1943 Verknupfungen von elementaren Einheiten als eine der Vernetzung von Neuronen ahnliche Art von Netz mit dem sich praktisch jede logische oder arithmetische Funktion berechnen lassen konnte 3 1947 weisen sie darauf hin dass ein solches Netz beispielsweise zur raumlichen Mustererkennung eingesetzt werden kann 1949 formuliert Donald O Hebb seine Hebbsche Lernregel die in ihrer allgemeinen Form die meisten der kunstlichen neuronalen Lernverfahren darstellt Karl Lashley kommt 1950 zu der These dass der Prozess der Informationsspeicherung im Gehirn verteilt auf verschiedene Untereinheiten realisiert wird 4 Erste Blutezeit Bearbeiten Im anschliessenden Jahr 1951 gelingt Marvin Minsky mit seiner Dissertationsarbeit der Bau des Neurocomputers Snarc der seine Gewichte automatisch justieren kann jedoch nicht praktisch einsetzbar ist 4 1956 treffen sich Wissenschaftler und Studenten auf der Dartmouth Conference Diese Konferenz gilt als Geburtsstunde der Kunstlichen Intelligenz als akademisches Fachgebiet 5 Von 1957 bis 1958 entwickeln Frank Rosenblatt und Charles Wightman den ersten erfolgreichen Neurocomputer mit dem Namen Mark I Perceptron Der Computer konnte mit seinem 20 20 Pixel grossen Bildsensor bereits einfache Ziffern erkennen Im nachfolgenden Jahr formuliert Rosenblatt das Perceptron Konvergenz Theorem 1960 stellen Bernard Widrow und Marcian E Hoff das ADALINE ADAptive LInear NEuron vor 6 Dieses Netz erreichte als erstes weite kommerzielle Verbreitung Anwendung fand es in Analogtelefonen zur Echtzeit Echofilterung Das neuronale Netz lernte mit der Deltaregel 1961 stellte Karl Steinbuch Techniken der assoziativen Speicherung vor 1969 gaben Marvin Minsky und Seymour Papert eine genaue mathematische Analyse des Perceptrons 7 Sie zeigten auf dass wichtige Probleme nicht gelost werden konnen So sind unter anderem XOR Operatoren nicht auflosbar und es gibt Probleme in der linearen Separierbarkeit Die Folge war ein vorlaufiges Ende der Forschungen auf dem Gebiet der neuronalen Netze da die meisten Forschungsgelder gestrichen wurden Langsamer Wiederaufbau Bearbeiten 1972 prasentiert Teuvo Kohonen den linearen Assoziator ein Modell des Assoziativspeichers 8 James A Anderson beschreibt das Modell unabhangig von Kohonen aus neuropsychologischer Sicht im selben Jahr 9 1973 benutzt Christoph von der Malsburg ein Neuronenmodell das nichtlinear ist Bereits 1974 entwickelt Paul Werbos fur seine Dissertation die Backpropagation bzw die Fehlerruckfuhrung Das Modell bekam aber erst spater eine grossere Bedeutung Ab 1976 entwickelt Stephen Grossberg mathematisch fundierte Modelle neuronaler Netze Zusammen mit Gail Carpenter widmet er sich auch dem Problem ein neuronales Netz lernfahig zu halten ohne bereits Gelerntes zu zerstoren Sie formulieren ein Architekturkonzept fur neuronale Netze die Adaptive Resonanztheorie 1982 beschreibt Teuvo Kohonen die nach ihm benannten selbstorganisierenden Karten Im selben Jahr beschreibt John Hopfield das Modell der Hopfield Netze 1983 wird von Kunihiko Fukushima S Miyake und T Ito das neuronale Modell Neocognitron vorgestellt Das Modell ist eine Weiterentwicklung des 1975 entwickelten Cognitrons und dient zur Erkennung handgeschriebener Zeichen Renaissance Bearbeiten 1985 veroffentlicht John Hopfield eine Losung des Travelling Salesman Problems durch ein Hopfield Netz 1985 wird das Lernverfahren Backpropagation of Error als Verallgemeinerung der Delta Regel durch die Parallel Distributed Processing Gruppe separat entwickelt Somit werden nicht linear separierbare Probleme durch mehrschichtige Perceptrons losbar Minskys Abschatzung war also widerlegt Neue Erfolge in Mustererkennungswettbewerben seit 2009 Bearbeiten In jungster Zeit erlebten neuronale Netze eine Wiedergeburt da sie bei herausfordernden Anwendungen oft bessere Ergebnisse als konkurrierende Lernverfahren liefern Zwischen 2009 und 2012 gewannen die rekurrenten bzw tiefen vorwartsgerichteten neuronalen Netze der Forschungsgruppe von Jurgen Schmidhuber am Schweizer KI Labor IDSIA eine Serie von acht internationalen Wettbewerben in den Bereichen Mustererkennung und maschinelles Lernen 10 Insbesondere gewannen ihre rekurrenten LSTM Netze 11 12 drei Wettbewerbe zur verbundenen Handschrifterkennung bei der 2009 Intl Conf on Document Analysis and Recognition ICDAR ohne eingebautes A priori Wissen uber die drei verschiedenen zu lernenden Sprachen Die LSTM Netze erlernten gleichzeitige Segmentierung und Erkennung Dies waren die ersten internationalen Wettbewerbe die durch Deep Learning 13 14 oder durch rekurrente Netze gewonnen wurden Tiefe vorwartsgerichtete Netze wie Kunihiko Fukushimas Konvolutionsnetz der 80er Jahre 15 sind heute wieder wichtig Sie verfugen uber alternierende Konvolutionslagen convolutional layers und Lagen von Neuronen die mehrere Aktivierungen zusammenfassen pooling layers 16 um die raumliche Dimension zu reduzieren Abgeschlossen wird ein solches Konvolutionsnetz in der Regel durch mehrere vollstandig verbundene Schichten englisch fully connected layers Yann LeCuns Team von der New York University wandte den 1989 schon gut bekannten Backpropagation Algorithmus auf solche Netze an 17 Moderne Varianten verwenden sogenanntes max pooling fur die Zusammenfassung der Aktivierungen das stets der starksten Aktivierung den Vorzug gibt 18 Schnelle GPU Implementierungen dieser Kombination wurden 2011 durch Dan Ciresan und Kollegen in Schmidhubers Gruppe eingefuhrt 19 Sie gewannen seither zahlreiche Wettbewerbe u a die ISBI 2012 Segmentation of Neuronal Structures in Electron Microscopy Stacks Challenge 20 und den ICPR 2012 Contest on Mitosis Detection in Breast Cancer Histological Images 21 Derartige Modelle erzielten auch die bisher besten Ergebnisse auf dem ImageNet Benchmark 22 23 GPU basierte max pooling Konvolutionsnetze waren auch die ersten kunstlichen Mustererkenner mit ubermenschlicher Performanz 24 in Wettbewerben wie der IJCNN 2011 Traffic Sign Recognition Competition 25 In den letzten Jahren fand auch die Theorie der Zufallsmatrizen vermehrt Anwendung in der Erforschung von neuronalen Netzen 26 Topologie der Verbindungsnetze Bearbeiten Einschichtiges Netz Zweischichtiges Netz Rekurrentes NetzIn kunstlichen neuronalen Netzen bezeichnet die Topologie die Struktur des Netzes Damit ist im Allgemeinen gemeint wie viele kunstliche Neuronen sich auf wie vielen Schichten befinden und wie diese miteinander verbunden sind Kunstliche Neuronen konnen auf vielfaltige Weise zu einem kunstlichen neuronalen Netz verbunden werden Dabei werden Neuronen bei vielen Modellen in hintereinander liegenden Schichten englisch layers angeordnet bei einem Netz mit nur einer trainierbaren Neuronenschicht spricht man von einem einschichtigen Netz Unter Verwendung eines Graphen konnen die Neuronen als Knoten und ihre Verbindungen als Kanten dargestellt werden Die Eingaben werden gelegentlich auch als Knoten dargestellt Die hinterste Schicht des Netzes deren Neuronenausgaben meist als einzige ausserhalb des Netzes sichtbar sind wird Ausgabeschicht englisch output layer genannt Davorliegende Schichten werden entsprechend als verdeckte Schicht englisch hidden layer bezeichnet Typische Strukturen Bearbeiten Die Struktur eines Netzes hangt unmittelbar mit dem verwendeten Lernverfahren zusammen und umgekehrt so kann mit der Delta Regel nur ein einschichtiges Netz trainiert werden bei mehreren Schichten ist eine leichte Abwandlung vonnoten Dabei mussen Netze nicht zwingend homogen sein es existieren auch Kombinationen aus verschiedenen Modellen um so unterschiedliche Vorteile zu kombinieren Es gibt reine feedforward Netze bei denen eine Schicht immer nur mit der nachsthoheren Schicht verbunden ist Daruber hinaus gibt es Netze in denen Verbindungen in beiden Richtungen erlaubt sind Die passende Netzstruktur wird meist nach der Methode von Versuch und Irrtum gefunden was durch evolutionare Algorithmen und eine Fehlerruckfuhrung unterstutzt werden kann Einschichtiges feedforward Netz Einschichtige Netze mit der feedforward Eigenschaft englisch fur vorwarts sind die einfachsten Strukturen kunstlicher neuronaler Netze Sie besitzen lediglich eine Ausgabeschicht Die feedforward Eigenschaft besagt dass Neuronenausgaben nur in Verarbeitungsrichtung geleitet werden und nicht durch eine rekurrente Kante zuruckgefuhrt werden konnen azyklischer gerichteter Graph Mehrschichtiges feedforward Netz Mehrschichtige Netze besitzen neben der Ausgabeschicht auch verdeckte Schichten deren Ausgabe wie beschrieben ausserhalb des Netzes nicht sichtbar sind Verdeckte Schichten verbessern die Abstraktion solcher Netze So kann erst das mehrschichtige Perzeptron das XOR Problem losen Rekurrentes Netz Rekurrente Netze besitzen im Gegensatz dazu auch ruckgerichtete rekurrente Kanten englisch feedback loops und enthalten somit eine Ruckkopplung Solche Kanten werden dann immer mit einer Zeitverzogerung in der Systemtheorie als Verzogerungsglied bezeichnet versehen sodass bei einer schrittweisen Verarbeitung die Neuronenausgaben der vergangenen Einheit wieder als Eingaben angelegt werden konnen Diese Ruckkopplungen ermoglichen einem Netz ein dynamisches Verhalten und statten es mit einem Gedachtnis aus In bestimmten Gehirnregionen von Saugetieren und auch anderen Wirbeltieren etwa Singvogeln werden nicht nur in Entwicklungsstadien sondern noch im Erwachsenenalter Neuronen neugebildet und in das neuronale Netz integriert siehe adulte Neurogenese insbesondere im Hippocampus Im Versuch solche Prozesse in neuronalen Netzen kunstlich nachzubilden stosst die Modellierung an Grenzen Zwar kann ein evolutionarer Algorithmus bestimmen ahnlich einem Moore Automaten wie haufig ein Neuron aktiviert werden muss damit sich in der Umgebung neue Neuronen ausbilden Jedoch muss hier zusatzlich auch festgelegt werden wie die neuen Neuronen in das vorhandene Netz integriert werden sollen Kunstliche neuronale Netze dieser Art mussen zwangslaufig darauf verzichten in Schichten aufgebaut zu sein Sie benotigen eine vollig freie Struktur fur die bestenfalls der Raum begrenzt werden kann in dem sich die Neuronen befinden durfen Funktionsweise BearbeitenKunstliche neuronale Netze dienen als universelle Funktionsapproximatoren Werte werden dabei von der Eingabe bis zur Ausgabeschicht propagiert wobei eine Aktivierungsfunktion fur Nichtlinearitat sorgt Beim Trainieren wird ein Fehler bestimmt mit Hilfe von Fehlerruckfuhrung und einem Optimierungsverfahren werden dabei die Gewichte schichtweise angepasst 27 Kunstliche Neuronen Bearbeiten Schema fur ein kunstliches NeuronKunstliche Neuronen erhalten wie auf dem Bild rechts zu erkennen ist eine Reihe von Eingabewerten Diese werden gewichtet Das erste was ein Neuron macht wenn es Eingaben erhalt ist es eine Propagierungsfunktion anzuwenden Meistens wird die gewichtete Summe Linearkombination verwendet net j i 1 n x i w i j displaystyle mbox net j sum limits i 1 n x i w ij Nach der Propagierungsfunktion wird die Aktivierungsfunktion angewendet o j f net j displaystyle o j varphi mbox net j Die Aktivierungsfunktion ist wichtig um Nichtlinearitat ins neuronale Netz hereinzubringen nicht alle Aufgaben neuronaler Netze lassen sich mit linearen Funktionen abbilden Es gibt verschiedene Aktivierungsfunktionen Meist wird die ReLU Funktion in den verdeckten Schichten verwendet In der Ausgabeschicht wird meist die Sigmoid Funktion eingesetzt Hierbei ist f varphi eine differenzierbare Aktivierungsfunktion deren Ableitung nicht uberall gleich null ist n n die Anzahl der Eingaben x i x i die Eingabe i i und w i j w ij die Gewichtung zwischen Eingabe i i und Neuron j j Es existieren auch Ausgabefunktionen meist wird jedoch einfach die Identitat zuruckgegeben die Identitat ist die Ruckgabe aus der Aktivierungsfunktion Fehlerfunktion Bearbeiten Mit Hilfe von verbundenen Neuronen die die Propagierungs und Aktivierungsfunktionen anwenden gibt das neuronale Netz einen Zahlenvektor aus Inwieweit das Ergebnis aus dem KNN von dem Zielwert abweicht wird mit Hilfe einer Fehlerfunktion bestimmt Es gibt verschiedene Arten von Fehlerfunktionen Eine davon ist der mittlere quadratische Fehler MQF E 1 2 i 1 n t i o i 2 displaystyle E frac 1 2 sum limits i 1 n t i o i 2 Dabei ist E E der Fehler n n die Anzahl der Muster die dem Netz vorgestellt werden t i t i die gewunschte Soll Ausgabe oder Zielwert target und o i o i die errechnete Ist Ausgabe output Der Faktor 1 2 tfrac 1 2 wird dabei lediglich zur Vereinfachung bei der Ableitung hinzugenommen Der MQF eignet sich wenn die Ruckgabe des Netzes ein einzelner Wert ist Fehlerruckfuhrung Bearbeiten Mit Hilfe des Fehlers lassen sich die Gewichte anpassen Dies geschieht in zwei Schritten im ersten Schritt wird mit Hilfe der Fehlerruckfuhrung die Gradienten bestimmt Im zweiten Schritt werden die Gradienten mit einem Optimierungsverfahren verwendet um die Gewichte zu aktualisieren In diesem Abschnitt geht es um die Fehlerruckfuhrung Die Idee hinter der Fehlerruckfuhrung ist es die Gradienten schichtweise zu berechnen Dies geschieht uber die Kettenregel E w i j E o j o j net j net j w i j displaystyle dfrac partial E partial w ij frac partial E partial o j frac partial o j partial mbox net j frac partial mbox net j partial w ij Optimierung Bearbeiten Mit der Fehlerruckfuhrung wurden Fehler und Gewichte in einer Funktion abgebildet Das Lernen korrespondiert nun zu einer Minimierung der Fehlerfunktion indem die Gewichte angepasst werden Das aus der Schule bekannte Optimalitatskriterium 1 Ordnung das Nullsetzen der Ableitung ist bei Neuronalen Netzen praktisch jedoch ungeeignet Stattdessen wird mit Gradientenverfahren gearbeitet um ein lokales Minimum der Fehlerfunktion zu finden Der Gradient ist die Richtung des steilsten Anstieges einer Funktion eine Bewegung entgegen den Gradienten ermoglicht also einen Abstieg auf dem Graphen der Fehlerfunktion Eine Iteration des naiven Gradientverfahrens oder Gradientenabstieges ist also die Berechnung des Gradienten fur die aktuelle Wahl der Gewichte anschliessend wird von den Gewichten der Gradient abgezogen und so neue Gewichte mit niedrigerem Fehler erhalten Das Netz hat somit also gelernt Dieses Update bzw dieser Abstiegsschritt wird durch folgende Zuweisung notiert w i w i a E w i displaystyle w i w i alpha times frac partial E partial w i Dabei beschreibt der Wert Alpha die Lernrate Dieser gibt an wie gross die Schritte sind die das Verfahren in Richtung des Minimums nehmen soll Zur Berechnung des Gradienten wird die Fehlerruckfuhrung engl Backpropagation verwendet Das Verfahren wird solange wiederholt bis ein Abbruchkriterium erfullt ist idealerweise durch Konvergenz zu einem lokalen Minimum Neben dem hier dargestellten naiven Gradientenverfahren werden in der Praxis meist besser entwickelte und leistungsfahigere Variationen des Gradientenabstieges verwendet z B der stochastische Gradientenabstieg oder das ADAM Verfahren Anwendung BearbeitenSeine besonderen Eigenschaften machen das KNN bei allen Anwendungen interessant bei denen kein oder nur geringes explizites systematisches Wissen uber das zu losende Problem vorliegt Dies sind z B die Texterkennung Spracherkennung Bilderkennung und Gesichtserkennung bei denen einige Hunderttausend bis Millionen Bildpunkte in eine im Vergleich dazu geringe Anzahl von erlaubten Ergebnissen uberfuhrt werden mussen Auch in der Regelungstechnik kommen KNN zum Einsatz um herkommliche Regler zu ersetzen oder ihnen Sollwerte vorzugeben die das Netz aus einer selbst entwickelten Prognose uber den Prozessverlauf ermittelt hat So konnen auch Fuzzy Systeme durch eine bidirektionale Umwandlung in neuronale Netze lernfahig gestaltet werden Die Anwendungsmoglichkeiten sind aber nicht auf techniknahe Gebiete begrenzt Bei der Vorhersage von Veranderungen in komplexen Systemen werden KNNs unterstutzend hinzugezogen z B zur Fruherkennung sich abzeichnender Tornados oder aber auch zur Abschatzung der weiteren Entwicklung wirtschaftlicher Prozesse Zu den Anwendungsgebieten von KNNs gehoren insbesondere Regelung und Analyse komplexer Prozesse Fruhwarnsysteme Fehlererkennung Optimierung Zeitreihenanalyse Wetter Aktien usw Sprachsynthese Klangsynthese Klassifikation Bildverarbeitung und Mustererkennung Schrifterkennung OCR Spracherkennung Data Mining Maschinenubersetzung Gesichtserkennung Gesichtsaustausch Informatik Bei Robotik virtuellen Agenten und KI Modulen in Spielen und Simulationen Medizinische Diagnostik Epidemiologie und Biometrie Strukturgleichungsmodell zum Modellieren von sozialen oder betriebswirtschaftlichen ZusammenhangenTrotz dieser sehr grossen Spanne an Anwendungsgebieten gibt es Bereiche die KNNs aufgrund ihrer Natur nicht abdecken konnen beispielsweise 28 Vorhersage von Zufalls oder Pseudozufalls Zahlen Faktorisierung von grossen Zahlen Bestimmung ob eine grosse Zahl prim ist Entschlusseln von verschlusselten TextenImplementierungen Bearbeiten TensorFlow Programmbibliothek SNNS Stuttgarter Neuronale Netze Simulator EpsiloNN neuronale Beschreibungssprache der Universitat Ulm OpenNNBiologische Motivation BearbeitenWahrend das Gehirn zur massiven Parallelverarbeitung in der Lage ist arbeiten die meisten heutigen Computersysteme nur sequentiell bzw partiell parallel eines Rechners Es gibt jedoch auch erste Prototypen neuronaler Rechnerarchitekturen sozusagen den neuronalen Chip fur die das Forschungsgebiet der kunstlichen neuronalen Netze die theoretischen Grundlagen bereitstellt Dabei werden die physiologischen Vorgange im Gehirn jedoch nicht nachgebildet sondern nur die Architektur der massiv parallelen Analog Addierer in Silizium nachgebaut was gegenuber einer Software Emulation eine bessere Leistung verspricht Klassen und Typen von KNN BearbeitenGrundsatzlich unterscheiden sich die Klassen der Netze vorwiegend durch die unterschiedlichen Netztopologien und Verbindungsarten so zum Beispiel einschichtige mehrschichtige Feedforward oder Feedback Netze McCulloch Pitts Netze Lernmatrix Perzeptron Adaline Modell Convolutional Neural Network CNN Self Organizing Maps auch Kohonen Netze SOM Growing Neural Gas GNG Lernende Vektorquantisierung LVQ Boltzmann Maschine Cascade Correlation Netze Counterpropagation Netze Probabilistische neuronale Netze Radiale Basisfunktions Netze RBF Adaptive Resonanztheorie ART Neocognitron Gepulste neuronale Netze Spiking Neural Networks SNN Pulscodierte neuronale Netze PCNN Time Delay Neural Networks TDNNs Rekurrente neuronale Netze RNNs Bidirektionaler Assoziativspeicher BAM Hopfield Netze Elman Netze auch Simple recurrent network SRN Jordan Netze Oszillierendes neuronales Netz Residuale neuronale NetzeAktivierungsfunktion Bearbeiten Hauptartikel Aktivierungsfunktionen im Artikel Kunstliches Neuron Jede verdeckte Schicht und die Ausgabeschicht bzw deren Neuronen verfugen uber eine eigene Aktivierungsfunktion Diese konnen linear oder nicht linear sein Nicht lineare Aktivierungsfunktionen machen das Netz besonders machtig 29 Lernverfahren BearbeitenLernverfahren dienen dazu ein neuronales Netz so zu modifizieren dass es fur bestimmte Eingangsmuster zugehorige Ausgabemuster erzeugt Dies geschieht grundsatzlich auf drei verschiedenen Wegen Uberwachtes Lernen supervised learning Bearbeiten Hauptartikel Uberwachtes Lernen Beim Uberwachten Lernen wird dem KNN ein Eingangsmuster gegeben und die Ausgabe die das neuronale Netz in seinem aktuellen Zustand produziert mit dem Wert verglichen den es eigentlich ausgeben soll Durch Vergleich von Soll und Istausgabe kann auf die vorzunehmenden Anderungen der Netzkonfiguration geschlossen werden Bei einlagigen Perzeptrons kann die Delta Regel auch Perzeptron Lernregel angewendet werden Mehrlagige Perzeptrons werden in der Regel mit Backpropagation trainiert was eine Verallgemeinerung der Delta Regel darstellt Unuberwachtes Lernen unsupervised learning Bearbeiten Hauptartikel Unuberwachtes Lernen Das Unuberwachte Lernen erfolgt ausschliesslich durch Eingabe der zu lernenden Muster Das neuronale Netz verandert sich entsprechend den Eingabemustern von selbst Hierbei gibt es folgende Lernregeln Adaptive Resonanztheorie Hebbsche LernregelBestarkendes Lernen reinforcement learning Bearbeiten Hauptartikel Bestarkendes Lernen Es ist nicht immer moglich zu jedem Eingabedatensatz den passenden Ausgabedatensatz zum Trainieren zur Verfugung zu haben Zum Beispiel kann man einem Agenten der sich in einer fremden Umgebung zurechtfinden muss etwa einem Roboter auf dem Mars nicht zu jedem Zeitpunkt sagen welche Aktion jeweils die beste ist Aber man kann dem Agenten eine Aufgabe stellen die dieser selbststandig losen soll Nach einem Testlauf der aus mehreren Zeitschritten besteht kann der Agent bewertet werden Aufgrund dieser Bewertung kann eine Agentenfunktion gelernt werden Der Lernschritt kann durch eine Vielzahl von Techniken vollzogen werden Unter anderem konnen hier auch kunstliche neuronale Netze zum Einsatz kommen Stochastisches Lernen Bearbeiten Hauptartikel Stochastisches Lernen Simulierte Abkuhlung Simulated Annealing Allgemeine Probleme BearbeitenDie Hauptnachteile von KNN sind gegenwartig Das Trainieren von KNN im Terminus der Statistik Das Schatzen der im Modell enthaltenen Parameter fuhrt in der Regel zu hochdimensionalen nichtlinearen Optimierungsproblemen Die prinzipielle Schwierigkeit bei der Losung dieser Probleme besteht in der Praxis haufig darin dass man nicht sicher sein kann ob man das globale Optimum gefunden hat oder nur ein lokales Obgleich in der Mathematik eine Fulle relativ schnell konvergierender lokaler Optimierungsverfahren entwickelt wurden beispielsweise Quasi Newton Verfahren BFGS DFP usw finden auch diese selten optimale Losungen Eine zeitaufwandige Naherung an die globale Losung erreicht man gegebenenfalls durch die vielfache Wiederholung der Optimierung mit immer neuen Startwerten Es mussen Trainings und Testdaten gesammelt oder manuell erzeugt werden Dieser Vorgang kann sehr schwierig sein da man verhindern muss dass das Netz Eigenschaften der Muster lernt die zwar auf dem Trainingsset mit dem Ergebnis in irgendeiner Weise korreliert sind die aber in anderen Situationen nicht zur Entscheidung herangezogen werden konnen oder sollen Wenn beispielsweise die Helligkeit von Trainingsbildern bestimmte Muster aufweist dann achtet das Netz unter Umstanden nicht mehr auf die gewunschten Eigenschaften sondern klassifiziert die Daten nur noch aufgrund der Helligkeit Im sozialen Bereich besteht z B die Gefahr durch einseitig ausgewahlte Testdaten bestehende Diskriminierungen etwa aufgrund des Geschlechts oder der Herkunft fortzuschreiben ohne die eigentlich angezielten Kriterien etwa Kreditwurdigkeit ausreichend zu berucksichtigen Bei Anwendung einer heuristischen Vorgehensweise bei der Netzspezifikation neigen KNN dazu die Trainingsdaten einfach auswendig zu lernen infolge Ubergeneralisierung bzw Uberanpassung englisch overfitting 30 Wenn dies geschieht konnen die Netze nicht mehr auf neue Daten verallgemeinern Um eine Uberanpassung zu vermeiden muss die Netzarchitektur mit Bedacht gewahlt werden In ahnlicher Weise besteht diese Problematik auch bei vielen anderen statistischen Verfahren und wird als Verzerrung Varianz Dilemma bezeichnet Verbesserte Verfahren setzen Boosting Support Vector Maschinen oder Regularisierung ein um diesem Problem zu begegnen Die Kodierung der Trainingsdaten muss problemangepasst und nach Moglichkeit redundanzfrei gewahlt werden In welcher Form die zu lernenden Daten dem Netz prasentiert werden hat einen grossen Einfluss auf die Lerngeschwindigkeit sowie darauf ob das Problem uberhaupt von einem Netz gelernt werden kann Gute Beispiele hierfur sind Sprachdaten Musikdaten oder auch Texte Das einfache Einspeisen von Zahlen beispielsweise aus einer wav Datei fur Sprache fuhrt selten zu einem erfolgreichen Ergebnis Je praziser das Problem allein durch die Vorverarbeitung und Kodierung gestellt wird desto erfolgreicher kann ein KNN dieses verarbeiten Die Vorbelegung der Gewichte spielt eine wichtige Rolle Als Beispiel sei ein 3 schichtiges Feed Forward Netz mit einem Eingabeneuron plus ein Bias Neuron und einem Ausgabeneuron und einer verdeckten Schicht mit N Neuronen plus ein Bias Neuron angenommen Die Aktivierungsfunktion des Eingabeneurons sei die Identitat Die Aktivierungsfunktion der verdeckten Schicht sei die Tanh Funktion Die Aktivierungsfunktion der Ausgabeschicht sei die logistische Sigmoide Das Netz kann maximal eine Sinusfunktion mit N lokalen Extrema im Intervall von 0 bis 1 lernen Wenn es diese Sinusfunktion gelernt hat kann es mit dieser Gewichtsbelegung jede beliebige Funktion die nicht mehr lokale Extrema als diese Sinusfunktion mit moglicherweise exponentieller Beschleunigung lernen unabhangig vom Lernalgorithmus Hier sei der einfachste Backpropagation ohne Momentum verwendet Glucklicherweise kann man die Gewichte fur solch eine Sinusfunktion leicht berechnen ohne dass das Netz das erst lernen muss Verdeckte Schicht i 0 N 1 displaystyle i 0 ldots N 1 x i 2 0 1 1 w 0 i x p N 0 5 w l i x i p displaystyle w 0i x cdot pi cdot N 0 5 w li x cdot i cdot pi Ausgabeschicht w j 1 displaystyle w j 1 Filmische Dokumentationen BearbeitenKunstliche neuronale Netze Computer lernen sehen einfache Erklarung 2017 Kunstliche neuronale Netze komplexere Erklarung Kunstliche neuronale Netze Programme lernen einfache Erklarung 2017Siehe auch BearbeitenAktivierungsraum Neuronaler SchaltkreisLiteratur BearbeitenJohann Gasteiger Jure Zupan Neural Networks in Chemistry and Drug Design Wiley VCH Weinheim NY u a 1999 ISBN 3 527 29779 0 Simon Haykin Neural Networks A Comprehensive Foundation 2 edition international edition Reprint Prentice Hall Upper Saddle River NJ u a 1999 ISBN 0 13 273350 1 John Hertz Anders Krogh Richard G Palmer Introduction to the Theory of Neural Computation Nachdruck Addison Wesley Reading MA u a 1999 ISBN 0 201 51560 1 Santa Fe Institute studies in the sciences of complexity Lecture notes 1 Computation and neural systems series Teuvo Kohonen Self Organizing Maps 3 edition Springer Berlin u a 2001 ISBN 3 540 67921 9 Springer Series in Information Sciences 30 Physics and Astronomy online Library Rudolf Kruse Christian Borgelt Frank Klawonn Christian Moewes Georg Russ Matthias Steinbrecher Computational Intelligence 1 Auflage Vieweg Teubner Verlag Springer Fachmedien Wiesbaden 2011 ISBN 978 3 8348 1275 9 Burkhard Lenze Einfuhrung in die Mathematik neuronaler Netze Mit C Anwendungsprogrammen im Internet 3 durchgesehene und uberarbeitete Auflage Logos Verlag Berlin 2009 ISBN 3 89722 021 0 Andre Lucas Schatzung und Spezifikation okonometrischer neuronaler Netze Eul Lohmar 2003 ISBN 3 89936 183 0 Reihe Quantitative Okonomie 138 Zugleich Koln Univ Diss 2002 Harald Maurer Cognitive Science Integrative Synchronization Mechanisms in Cognitive Neuroarchitectures of the Modern Connectionism CRC Press Boca Raton FL 2021 ISBN 978 1 351 04352 6 Heinz Rehkugler Hans Georg Zimmermann Neuronale Netze in der Okonomie Grundlagen und finanzwirtschaftliche Anwendungen Vahlen Munchen 1994 ISBN 3 800 61871 0 Gunter Daniel Rey Karl F Wender Neuronale Netze Eine Einfuhrung in die Grundlagen Anwendungen und Datenauswertung Hogrefe AG Bern 2018 dritte Auflage ISBN 978 34568 5796 1 Psychologie Lehrbuch Helge Ritter Thomas Martinetz Klaus Schulten Neural Computation and Self Organizing Maps An Introduction Addison Wesley Reading MA 1992 ISBN 0 201 55442 9 Computation and neural Systems Series Raul Rojas Theorie der Neuronalen Netze Eine systematische Einfuhrung 4 korrigierter Nachdruck Springer Berlin u a 1996 ISBN 3 540 56353 9 Springer Lehrbuch Andreas Zell Simulation neuronaler Netze 4 unveranderter Nachdruck Oldenbourg Munchen u a 2003 ISBN 3 486 24350 0 Weblinks Bearbeiten Commons Kunstliches neuronales Netz Album mit Bildern Videos und Audiodateien Einfuhrung in die Grundlagen und Anwendungen neuronaler Netze Der Blick in Neuronale Netze 1 Juli 2019 in Fraunhofer Institut fur Nachrichtentechnik Neuronale Netze Einfuhrung Nina Schaaf 14 Januar 2020 in Informatik Aktuell Magazin Ein kleiner Uberblick uber Neuronale Netze Grundlagenskript zu zahlreichen Arten Lernprinzipien neuronaler Netze viele Abbildungen einfach geschrieben ca 200 Seiten PDF Gute Einfuhrung in neuronale Netze englisch Einzelnachweise Bearbeiten Memento vom 2 Mai 2013 im Internet Archive http www dkriesel com science neural networks Stand 14 April 2016 Warren S McCulloch und Walter Pitts A logical calculus of the ideas immanent in nervous activity Hrsg Bulletin of Mathematical Biophysics Vol 5 Auflage Kluwer Academic Publishers 1943 S 115 133 doi 10 1007 BF02478259 a b Neuronale Netze Einfuhrung Abgerufen am 5 September 2015 englisch Erhard Konrad Zur Geschichte der Kunstlichen Intelligenz in der Bundesrepublik Deutschland PDF 86 kB abgerufen am 23 Mai 2019 Bernhard Widrow Marcian Hoff Adaptive switching circuits In Proceedings WESCON 1960 ZDB ID 267416 6 S 96 104 Marvin Minsky Seymour Papert Perceptrons An Introduction to Computational Geometry MIT Press Cambridge MA u a 1969 Teuvo Kohonen Correlation matrix memories In IEEE transactions on computers C 21 1972 ISSN 0018 9340 S 353 359 James A Anderson A simple neural network generating an interactive memory In Mathematical Biosciences 14 1972 ISSN 0025 5564 S 197 220 2012 Kurzweil AI Interview Memento vom 31 August 2018 im Internet Archive mit Jurgen Schmidhuber zu den acht Wettbewerben die sein Deep Learning Team zwischen 2009 und 2012 gewann Alex Graves Jurgen Schmidhuber Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks In Yoshua Bengio Dale Schuurmans John Lafferty Chris K I Williams Aron Culotta Hrsg Advances in Neural Information Processing Systems 22 NIPS 22 December 7th 10th 2009 Vancouver BC Neural Information Processing Systems NIPS Foundation 2009 S 545 552 A Graves M Liwicki S Fernandez R Bertolami H Bunke J Schmidhuber A Novel Connectionist System for Improved Unconstrained Handwriting Recognition IEEE Transactions on Pattern Analysis and Machine Intelligence Band 31 Nr 5 2009 Y Bengio Learning Deep Architectures for AI Memento vom 21 Marz 2014 im Internet Archive Now Publishers 2009 Jurgen Schmidhuber My First Deep Learning System of 1991 Deep Learning Timeline 1962 2013 K Fukushima Neocognitron A self organizing neural network model for a mechanism of pattern recognition unaffected by shift in position In Biological Cybernetics 36 Jahrgang Nr 4 1980 S 93 202 doi 10 1007 BF00344251 Dominik Scherer Andreas Muller Sven Behnke Evaluation of Pooling Operations in Convolutional Architectures for Object Recognition In Artificial Neural Networks ICANN 2010 Lecture Notes in Computer Science Springer Berlin Heidelberg 2010 ISBN 978 3 642 15825 4 S 92 101 doi 10 1007 978 3 642 15825 4 10 springer com abgerufen am 26 August 2019 Y LeCun B Boser J S Denker D Henderson R E Howard W Hubbard L D Jackel Backpropagation Applied to Handwritten Zip Code Recognition In Neural Computation Band 1 1989 S 541 551 M Riesenhuber T Poggio Hierarchical models of object recognition in cortex In Nature Neuroscience 1999 D C Ciresan U Meier J Masci L M Gambardella J Schmidhuber Flexible High Performance Convolutional Neural Networks for Image Classification International Joint Conference on Artificial Intelligence IJCAI 2011 Barcelona 2011 D Ciresan A Giusti L Gambardella J Schmidhuber Deep Neural Networks Segment Neuronal Membranes in Electron Microscopy Images In Advances in Neural Information Processing Systems NIPS 2012 Lake Tahoe 2012 D Ciresan A Giusti L Gambardella J Schmidhuber Mitosis Detection in Breast Cancer Histology Images using Deep Neural Networks MICCAI 2013 A Krizhevsky I Sutskever G E Hinton ImageNet Classification with Deep Convolutional Neural Networks NIPS 25 MIT Press 2012 M D Zeiler R Fergus Visualizing and Understanding Convolutional Networks 2013 arxiv 1311 2901 D C Ciresan U Meier J Schmidhuber Multi column Deep Neural Networks for Image Classification IEEE Conf on Computer Vision and Pattern Recognition CVPR 2012 D C Ciresan U Meier J Masci J Schmidhuber Multi Column Deep Neural Network for Traffic Sign Classification Neural Networks 2012 J Pennington und Y Bahri Geometry of Neural Network Loss Surfaces via Random Matrix Theory In ICML 2017 semanticscholar org Dasaradh S K A Gentle Introduction To Math Behind Neural Networks 30 Oktober 2020 abgerufen am 21 August 2022 englisch Neural Networks FAQ Abgerufen am 24 Juli 2019 englisch Neural Networks FAQ Abgerufen am 5 September 2015 englisch Johannes Merkert Ein kunstliches neuronales Netz selbst gebaut In c t Abgerufen am 24 Mai 2016 Normdaten Sachbegriff GND 4226127 2 lobid OGND AKS Abgerufen von https de wikipedia org w index php title Kunstliches neuronales Netz amp oldid 234845283