www.wikidata.de-de.nina.az
Ein kunstliches Neuron bildet die Basis fur das Modell der kunstlichen neuronalen Netze ein Modell aus der Neuroinformatik das durch biologische neuronale Netze motiviert ist Als konnektionistisches Modell bilden sie in einem Netzwerk aus kunstlichen Neuronen ein kunstliches neuronales Netz und konnen so beliebig komplexe Funktionen approximieren Aufgaben erlernen und Probleme losen bei denen eine explizite Modellierung schwierig bis nicht durchzufuhren ist Beispiele sind die Gesichts und Spracherkennung Als Modell aus dem biologischen Vorbild der Nervenzelle entstanden kann es mehrere Eingaben verarbeiten und entsprechend uber seine Aktivierung reagieren Dazu werden die Eingaben gewichtet an eine Ausgabefunktion ubergeben welche die Neuronenaktivierung berechnet Ihr Verhalten wird ihnen im Allgemeinen durch Einlernen unter Verwendung eines Lernverfahrens gegeben Inhaltsverzeichnis 1 Geschichte 2 Biologische Motivation 3 Modellierung 3 1 Bestandteile 3 2 Mathematische Definition 4 Aktivierungsfunktionen 4 1 Schwellenwertfunktion 4 2 Stuckweise lineare Funktion 4 3 Sigmoidfunktion 4 4 Rectifier ReLU 5 Beispiele 5 1 Darstellung boolescher Funktionen 5 2 Einlernen eines Neurons 6 Anwendungskraft eines einzelnen Neurons 7 Literatur 8 Weblinks 9 QuellenGeschichte Bearbeiten Diagramm einer McCulloch Pitts Zelle nach MinskyDie Anfange der kunstlichen Neuronen gehen auf Warren McCulloch und Walter Pitts im Jahr 1943 zuruck Sie zeigen an einem vereinfachten Modell eines Neuronalen Netzes der McCulloch Pitts Zelle dass diese logische und arithmetische Funktionen berechnen kann Neuronale Verbindungen des Nagetier Hippocampus von Ramon y Cajal 1911 Die Hebbsche Lernregel wird im Jahr 1949 von Donald Hebb beschrieben Aufbauend auf der medizinischen Forschung von Santiago Ramon y Cajal der bereits 1911 die Existenz von Synapsen nachgewiesen hat werden nach dieser Regel wiederholt aktive Verbindungen zwischen Nervenzellen gestarkt Die Verallgemeinerung dieser Regel wird auch in den heutigen Lernverfahren noch verwendet Eine wichtige Arbeit kommt im Jahre 1958 mit dem Konvergenztheorem uber das Perzeptron heraus Dort zeigt Frank Rosenblatt dass es mit dem angegebenen Lernverfahren alle Losungen einlernen kann die mit diesem Modell reprasentierbar sind Jedoch zeigen die Kritiker Marvin Minsky und Seymour Papert 1969 dass ein einstufiges Perzeptron eine XOR Verknupfung nicht reprasentieren kann weil die XOR Funktion nicht linear separierbar linear trennbar ist erst spatere Modelle konnen diesen Missstand beheben Die so gezeigte Grenze in der Modellierung fuhrt zunachst zu einem abnehmenden Interesse an der Erforschung der kunstlichen neuronalen Netze sowie zu einer Streichung von Forschungsgeldern Ein Interesse an kunstlichen Neuronalen Netzen kommt erst wieder auf als John Hopfield die Hopfield Netze 1985 bekannt macht und zeigt dass sie in der Lage sind Optimierungsprobleme zu losen wie das Problem des Handlungsreisenden 1 Ebenfalls fuhrt die Arbeit zum Backpropagation Verfahren von David E Rumelhart Geoffrey E Hinton und Ronald J Williams ab 1986 zu einer Wiederbelebung der Erforschung dieser Netze Heute werden solche Netze in vielen Forschungsbereichen verwendet Biologische Motivation Bearbeiten Schematische Darstellung einer NervenzelleMotiviert sind kunstliche Neuronen durch die Nervenzellen der Saugetiere die auf die Aufnahme und Verarbeitung von Signalen spezialisiert sind Uber Synapsen werden Signale elektrisch oder chemisch an andere Nervenzellen oder Effektorzellen etwa zur Muskelkontraktion weitergeleitet Eine Nervenzelle besteht aus dem Zellkorper Axon und den Dendriten Dendriten sind kurze Zellfortsatze die stark verzweigt fur die Aufnahme von Signalen anderer Nervenzellen oder Sinneszellen sorgen Das Axon funktioniert als Signalausgang der Zelle und kann eine Lange von bis zu 1 m erreichen Der Ubergang der Signale erfolgt an den Synapsen welche erregend oder hemmend wirken konnen Die Dendriten der Nervenzelle leiten die eingehenden elektrischen Erregungen an den Zellkorper weiter Erreicht die Erregung einen gewissen Grenzwert und ubersteigt ihn entladt sich die Spannung und pflanzt sich uber das Axon fort Alles oder nichts Gesetz Die Verschaltung dieser Nervenzellen bildet die Grundlage fur die geistige Leistung des Gehirns Das Zentralnervensystem des Menschen besteht nach Schatzungen aus 1010 bis 1012 Nervenzellen die durchschnittlich 10 000 Verbindungen besitzen das menschliche Gehirn kann also mehr als 1014 Verbindungen besitzen 2 3 Das Aktionspotential im Axon kann sich mit einer Geschwindigkeit von bis zu 100 m s fortpflanzen Im Vergleich zu Logikgattern zeigt sich auch die Effizienz von Neuronen Wahrend Gatter im Nanosekunden Bereich 10 9 schalten unter einem Energieverbrauch von 10 6 Joule Daten von 1991 reagieren Nervenzellen im Millisekunden Bereich 10 3 und verbrauchen lediglich eine Energie von 10 16 Joule Trotz der augenscheinlich geringeren Werte in der Verarbeitung durch Nervenzellen konnen rechnergestutzte Systeme nicht an die Fahigkeiten biologischer Systeme heranreichen Die Leistung neuronaler Netze wird ebenfalls durch die 100 Schritt Regel demonstriert Die visuelle Erkennung beim Menschen findet in maximal 100 sequentiellen Verarbeitungsschritten statt die meist sequentiell arbeitenden Rechner erbringen keine vergleichbare Leistung Die Vorteile und Eigenschaften von Nervenzellen motivieren das Modell der kunstlichen Neuronen Viele Modelle und Algorithmen zu kunstlichen neuronalen Netzen entbehren dennoch einer direkt plausiblen biologischen Motivierung Dort findet sich diese nur im Grundgedanken der abstrakten Modellierung der Nervenzelle Modellierung BearbeitenMit der Biologie als Vorbild wird nun durch eine passende Modellbildung eine fur die Informationstechnik verwendbare Losung gefunden Durch eine grobe Verallgemeinerung wird das System vereinfacht unter Erhaltung der wesentlichen Eigenschaften Die Synapsen der Nervenzelle werden hierbei durch die Addition gewichteter Eingaben abgebildet die Aktivierung des Zellkerns durch eine Aktivierungsfunktion mit Schwellenwert Die Verwendung eines Addierers und Schwellenwerts findet sich so schon in der McCulloch Pitts Zelle von 1943 Bestandteile Bearbeiten Darstellung eines kunstlichen Neurons mit seinen Elementen Lineare Trennung durch Trennebene fur die KonjunktionEin kunstliches Neuron mit dem Index j j und den n Eingangen indiziert mit i i kann durch vier Basiselemente beschrieben werden Gewichtung Jeder Eingang bekommt ein Gewicht Die Gewichte w i j w ij Eingang i i bei Neuron j j bestimmen den Grad des Einflusses den die Eingaben des Neurons in der Berechnung der spateren Aktivierung einnehmen Abhangig von den Vorzeichen der Gewichte kann eine Eingabe hemmend inhibitorisch oder erregend exzitatorisch wirken Ein Gewicht von 0 markiert eine nicht existente Verbindung zwischen zwei Knoten Ubertragungsfunktion Die Ubertragungsfunktion S Sigma berechnet anhand der Gewichtung der Eingaben die Netzeingabe des Neurons Aktivierungsfunktion Die Ausgabe des Neurons wird schliesslich durch die Aktivierungsfunktion f varphi bestimmt Die Aktivierung wird beeinflusst durch die Netzeingabe aus der Ubertragungsfunktion sowie einem Schwellenwert Schwellenwert Das Addieren eines Schwellenwerts 8 j theta j zur Netzeingabe verschiebt die gewichteten Eingaben Die Bezeichnung ergibt sich aus der Verwendung einer Schwellenwertfunktion als Aktivierungsfunktion bei der das Neuron aktiviert wird wenn der Schwellenwert uberschritten ist Die biologische Motivierung dabei ist das Schwellenpotential bei Nervenzellen Mathematisch gesehen wird die Trennebene die den Merkmalsraum auftrennt durch einen Schwellenwert mit einer Translation verschoben Durch einen Verbindungsgraphen werden folgende Elemente festgelegt Eingaben Eingaben x i x i konnen einerseits aus dem beobachteten Prozess resultieren dessen Werte dem Neuron ubergeben werden oder wiederum aus den Ausgaben anderer Neuronen stammen Sie werden auch so dargestellt Aktivierung oder Ausgabe Das Ergebnis der Aktivierungsfunktion wird analog zur Nervenzelle als Aktivierung o j o j o fur output des kunstlichen Neurons mit dem Index j j bezeichnet Mathematische Definition Bearbeiten Das kunstliche Neuron als Modell wird in der Literatur meist auf dem folgenden Weg eingefuhrt Zuerst wird die Aktivierung v v in der Abbildung oben als Netzeingabe oder net bezeichnet des kunstlichen Neurons durch v i 1 n x i w i w 0 displaystyle v sum i 1 n x i w i w 0 definiert Da die Mathematik den Index 0 9 und die Anzahl 10 im Allgemeinen nicht unterscheidet wird als mathematische Vereinfachung normalerweise eine synthetische Eingabe x 0 1 displaystyle x 0 1 eingefuhrt und man schreibt v i 0 n x i w i displaystyle v sum i 0 n x i w i o f v displaystyle o varphi v Dabei ist n n die Anzahl der Eingaben x i x i die Eingabe mit dem Index i i die sowohl diskret als auch stetig sein kann w i w i die Gewichtung der Eingabe mit dem Index i i f varphi die Aktivierungsfunktion und o o die Ausgabe englisch output Aktivierungsfunktionen BearbeitenAls Aktivierungsfunktion f varphi konnen verschiedene Funktionstypen verwendet werden abhangig von der verwendeten Netztopologie Eine solche Funktion kann nicht linear zum Beispiel sigmoid stuckweise linear oder eine Sprungfunktion sein Im Allgemeinen sind Aktivierungsfunktionen monoton steigend Lineare Aktivierungsfunktionen unterliegen einer starken Beschrankung da eine Komposition linearer Funktionen durch arithmetische Umformungen durch eine einzige lineare Funktion dargestellt werden kann Fur mehrschichtige Verbindungsnetzwerke sind sie deswegen nicht geeignet und finden so nur in einfachen Modellen Anwendung Beispiele fur grundlegende Aktivierungsfunktionen sind Schwellenwertfunktion Bearbeiten SchwellenwertfunktionDie Schwellenwertfunktion engl hard limit wie sie im Folgenden definiert ist nimmt nur die Werte 0 displaystyle 0 oder 1 1 an Den Wert 1 fur die Eingabe v 0 v geq 0 sonst 0 displaystyle 0 Bei subtraktiver Verwendung eines Schwellenwerts 8 theta wird die Funktion nur aktiviert wenn die zusatzliche Eingabe den Schwellenwert ubersteigt Ein Neuron mit einer solchen Funktion wird auch McCulloch Pitts Zelle genannt Sie spiegelt die Alles oder nichts Eigenschaft des Modells wider f hlim v 1 wenn v 0 0 wenn v lt 0 displaystyle varphi text hlim v begin cases 1 amp text wenn v geq 0 0 amp text wenn v lt 0 end cases Ein Neuron mit dieser Aktivierungsfunktion wird auch so dargestellt Stuckweise lineare Funktion Bearbeiten Stuckweise lineare FunktionDie hier verwendete stuckweise lineare Funktion engl piecewise linear bildet ein begrenztes Intervall linear ab die ausseren Intervalle werden auf einen konstanten Wert abgebildet f pwl v 1 wenn v 1 2 v 1 2 wenn 1 2 lt v lt 1 2 0 wenn v 1 2 displaystyle varphi text pwl v begin cases 1 amp text wenn v geq frac 1 2 v frac 1 2 amp text wenn frac 1 2 lt v lt frac 1 2 0 amp text wenn v leq frac 1 2 end cases Ein Neuron mit der stuckweise linearen Funktion als Aktivierungsfunktion wird auch folgendermassen dargestellt Sigmoidfunktion Bearbeiten Sigmoide Funktion mit Steigungsmass a 5 a 5 sowie a 10 a 10 Sigmoide Funktionen als Aktivierungsfunktion sind sehr haufig verwendete Abbildungen Sie besitzen wie hier definiert ein variables Steigungsmass a a das die Krummung des Funktionsgraphen beeinflusst Eine spezielle Eigenschaft ist ihre Differenzierbarkeit die fur einige Verfahren wie den Backpropagation Algorithmus benotigt werden f a sig v 1 1 exp a v displaystyle varphi a text sig v frac 1 1 exp av Die Werte der obigen Funktionen liegen im Intervall 0 1 0 1 Fur das Intervall 1 1 1 1 lassen sich diese Funktionen entsprechend definieren Ein Neuron mit der Sigmoidfunktion wird auch so dargestellt Rectifier ReLU Bearbeiten Rectifier AktivierungsfunktionRectifier als Aktivierungsfunktion wird besonders in Deep Learning Modellen erfolgreich eingesetzt Sie ist als Positivteil ihres Arguments definiert f v max 0 v displaystyle varphi v max 0 v Beispiele BearbeitenDarstellung boolescher Funktionen Bearbeiten Mit kunstlichen Neuronen lassen sich boolesche Funktionen darstellen So konnen die drei Funktionen Konjunktion and Disjunktion or und Negation not unter Verwendung einer Schwellenwertfunktion f hlim displaystyle varphi text hlim wie folgt reprasentiert werden Konjunktion Disjunktion Negation Neuron das die Konjunktion reprasentiert Neuron das die Disjunktion reprasentiert Neuron das die Negation reprasentiertFur die Konjunktion zum Beispiel ist ersichtlich dass nur fur die booleschen Eingaben x 1 1 x 1 1 und x 2 1 x 2 1 die Aktivierung o f hlim w 1 x 1 w 2 x 2 8 f hlim 1 0 1 1 0 1 1 5 f hlim 0 5 1 displaystyle o varphi text hlim w 1 cdot x 1 w 2 cdot x 2 theta varphi text hlim 1 0 cdot 1 1 0 cdot 1 1 5 varphi text hlim 0 5 1 ergibt sonst 0 displaystyle 0 Einlernen eines Neurons Bearbeiten Anders als im vorherigen Beispiel bei dem die passenden Gewichtungen gewahlt wurden konnen Neuronen die zu reprasentierende Funktion erlernen Die Gewichtungen und der Schwellenwert werden anfangs mit zufalligen Werten belegt und anschliessend unter Verwendung eines Versuch und Irrtum Lernalgorithmus angepasst Wertetabelle der logischen Konjunktion x 1 x 1 x 2 x 2 x 1 and x 2 displaystyle x 1 text and x 2 0 0 00 1 01 0 01 1 1Um die logische Konjunktion zu erlernen kann die Perzeptron Kriteriumsfunktion angewendet werden Sie addiert die Werte fehlerhaft erkannter Eingaben auf die Gewichtung hinzu um die Erkennung zu verbessern bis moglichst alle Eingaben richtig klassifiziert werden Die Aktivierungsfunktion ist hier analog zum vorherigen Beispiel die Schwellenwertfunktion f hlim displaystyle varphi text hlim Fur das Lernverfahren wird die Lernrate welche die Geschwindigkeit des Einlernens festlegt mit a 1 alpha 1 gewahlt Somit entfallt eine explizite Erwahnung Statt den Schwellenwert als solchen anzugeben wird ein on Neuron Bias also ein konstanter Eingang x 0 1 x 0 1 hinzugefugt Der Schwellenwert wird durch die Gewichtung w 0 8 w 0 theta angegeben Um das Neuron auf die beiden moglichen Ausgaben 0 displaystyle 0 und 1 1 der Konjunktion zu trainieren werden die Eingaben fur die zugehorige Ausgabe 0 displaystyle 0 mit 1 1 multipliziert Die Ausgabe ist durch diesen Schritt nur dann 0 displaystyle 0 wenn die betreffende Eingabe fehlerhaft klassifiziert wurde Dieses Vorgehen vereinfacht die Betrachtung beim Einlernen und die spatere Gewichtungsanpassung Danach sieht die Lerntabelle folgendermassen aus Lerntabelle Eingabenx 0 x 0 x 1 x 1 x 2 x 2 1 0 0 1 0 1 1 1 01 1 1Der Eingang x 0 x 0 hat bei den Eingangen den Wert 1 1 bei denen das Neuron am Ende 0 displaystyle 0 ausgeben soll Fur die Ausgangssituation werden die Gewichtungen zufallig gewahlt Gewicht Anfanglicher Wert Bedeutungw 0 w 0 8 theta 0 0 1 Darstellung des Schwellenwertsw 1 w 1 0 0 6 Gewichtung der ersten Eingabe x 1 x 1 w 2 w 2 0 3 Gewichtung der zweiten Eingabe x 2 x 2 Zum Testen der Gewichtungen werden diese in ein Neuron mit drei Eingangen und dem Schwellenwert 8 0 theta 0 eingesetzt Fur die gewahlten Gewichte sieht die Ausgabe wie folgt aus Ausgabe des Neurons mit zufalligen Gewichten Eingaben Ausgabex 0 x 0 x 1 x 1 x 2 x 2 1 0 0 0 1 0 1 1 1 1 0 01 1 1 1Die erste und dritte Eingabe werden falsch berechnet und das Neuron gibt 0 displaystyle 0 aus Nun findet die Perzeptron Kriteriumsfunktion ihre Anwendung Durch die Addition mit den falsch erkannten Eingaben werden die zugehorigen Gewichte durch w i n e u w i a l t j a t j o j x i displaystyle w i mathrm neu w i mathrm alt sum j alpha cdot t j o j cdot x i korrigiert Dabei ist j j die Nummer der Eingabe t j t j die gewunschte Ausgabe o j o j die tatsachliche Ausgabe x i x i die Eingabe des Neurons und a gt 0 alpha gt 0 der Lerngeschwindigkeits Koeffizient Gewichtsanpassung im ersten Schritt Schritt Gewicht Vorheriger Wert Neuer Wert1 w 0 w 0 0 0 1 w 0 1 w 0 0 1 1 1 9 displaystyle w 0 1 w 0 0 1 1 1 9 w 1 w 1 0 0 6 w 1 1 w 1 0 0 1 0 4 displaystyle w 1 1 w 1 0 0 1 0 4 w 2 w 2 0 3 w 2 1 w 2 0 0 0 0 3 displaystyle w 2 1 w 2 0 0 0 0 3 Uberprufung Eingaben Ausgabex 0 x 0 x 1 x 1 x 2 x 2 1 0 0 1 1 0 1 1 1 1 0 11 1 1 0Die Uberprufung nach der Gewichtungsanderung zeigt dass statt der ersten und dritten Eingabe nun die vierte Eingabe falsch klassifiziert wird Die Ausfuhrung eines weiteren Schrittes des Lernverfahrens verbessert die Erkennungsfunktion des Neurons Gewichtsanpassung im zweiten Schritt Schritt Gewicht Vorheriger Wert Neuer Wert2 w 0 w 0 1 9 w 0 2 w 0 1 1 0 9 displaystyle w 0 2 w 0 1 1 0 9 w 1 w 1 0 4 w 1 2 w 1 1 1 0 6 displaystyle w 1 2 w 1 1 1 0 6 w 2 w 2 0 3 w 2 2 w 2 1 1 0 7 displaystyle w 2 2 w 2 1 1 0 7 Uberprufung Eingaben Ausgabex 0 x 0 x 1 x 1 x 2 x 2 1 0 0 1 1 0 1 1 1 1 0 11 1 1 1Nun sieht man dass das Neuron die vorgegebene Funktion erlernt hat und alle vier Eingaben richtig berechnet Unter Verwendung der Eingabe x 1 1 x 1 1 und x 2 1 x 2 1 und die Wahl von 8 w 0 theta w 0 folgt nun die Aktivierung o f hlim w 0 x 0 w 1 x 1 w 2 x 2 f hlim w 1 x 1 w 2 x 2 8 f hlim 0 6 1 0 7 1 0 9 f hlim 0 4 1 displaystyle begin matrix o amp amp varphi text hlim w 0 cdot x 0 w 1 cdot x 1 w 2 cdot x 2 varphi text hlim w 1 cdot x 1 w 2 cdot x 2 theta amp amp varphi text hlim 0 6 cdot 1 0 7 cdot 1 0 9 varphi text hlim 0 4 1 end matrix Fur die anderen drei Eingaben die fur das Einlernen mit 1 1 multipliziert wurden ergibt sich nun der Wert 0 displaystyle 0 So folgt aus der Eingabe x 1 0 x 1 0 und x 2 1 x 2 1 die Aktivierung o f hlim 0 6 0 0 7 1 0 9 f hlim 0 2 0 displaystyle o varphi text hlim 0 6 cdot 0 0 7 cdot 1 0 9 varphi text hlim 0 2 0 Ohne bestimmte Gewichtungen vorzugeben hat das Neuron gelernt anhand der Vorgaben die Konjunktion wie im ersten Beispiel darzustellen Anwendungskraft eines einzelnen Neurons BearbeitenEin kunstliches Neuron ist in der Lage auch ohne ein gesamtes Netzwerk maschinell zu lernen Die statistischen Fachausdrucke sind lineare Regression und Klassifizierung Damit konnen lineare Funktionen erlernt und linear trennbare Klassen unterschieden werden Mithilfe des sogenannten Kerneltricks konnen aber auch nichtlineare Modelle erlernt werden Demnach kann ein einzelnes Neuron ahnliche Ergebnisse auch wenn nicht ganz optimal wie SVMs erzielen Literatur BearbeitenSimon Haykin Neural Networks A Comprehensive Foundation Macmillan College Publishing Company New York 1994 ISBN 0 02 352761 7 Andreas Zell Simulation neuronaler Netze R Oldenbourg Verlag Munchen 1997 ISBN 3 486 24350 0 Jurgen Cleve Uwe Lammel Data Mining De Gruyter Oldenbourg Verlag Munchen 2014 ISBN 978 3 486 71391 6 Jurgen Cleve Uwe Lammel Kunstliche Intelligenz Hanser Verlag Munchen 2012 ISBN 978 3 446 42758 7 Weblinks BearbeitenTechnology Review Geist in der MaschineQuellen Bearbeiten J J Hopfield D Tank Neural Computation of Decisions in Optimization Space Biological Cybernetics Nr 52 S 141 152 1985 Patricia S Churchland Terrence J Sejnowski Grundlagen zur Neuroinformatik und Neurobiologie Friedr Vieweg amp Sohn Verlagsgesellschaft Braunschweig Wiesbaden 1997 ISBN 3 528 05428 X Werner Kinnebrock Neuronale Netze Grundlagen Anwendungen Beispiele R Oldenbourg Verlag Munchen 1994 ISBN 3 486 22947 8 Dieser Artikel wurde am 17 Juli 2006 in dieser Version in die Liste der lesenswerten Artikel aufgenommen Abgerufen von https de wikipedia org w index php title Kunstliches Neuron amp oldid 233612969