www.wikidata.de-de.nina.az
Ein kunstliches Neuron bildet die Basis fur das Modell der kunstlichen neuronalen Netze ein Modell aus der Neuroinformatik das durch biologische neuronale Netze motiviert ist Als konnektionistisches Modell bilden sie in einem Netzwerk aus kunstlichen Neuronen ein kunstliches neuronales Netz und konnen so beliebig komplexe Funktionen approximieren Aufgaben erlernen und Probleme losen bei denen eine explizite Modellierung schwierig bis nicht durchzufuhren ist Beispiele sind die Gesichts und Spracherkennung Als Modell aus dem biologischen Vorbild der Nervenzelle entstanden kann es mehrere Eingaben verarbeiten und entsprechend uber seine Aktivierung reagieren Dazu werden die Eingaben gewichtet an eine Ausgabefunktion ubergeben welche die Neuronenaktivierung berechnet Ihr Verhalten wird ihnen im Allgemeinen durch Einlernen unter Verwendung eines Lernverfahrens gegeben Inhaltsverzeichnis 1 Geschichte 2 Biologische Motivation 3 Modellierung 3 1 Bestandteile 3 2 Mathematische Definition 4 Aktivierungsfunktionen 4 1 Schwellenwertfunktion 4 2 Stuckweise lineare Funktion 4 3 Sigmoidfunktion 4 4 Rectifier ReLU 5 Beispiele 5 1 Darstellung boolescher Funktionen 5 2 Einlernen eines Neurons 6 Anwendungskraft eines einzelnen Neurons 7 Literatur 8 Weblinks 9 QuellenGeschichte Bearbeiten nbsp Diagramm einer McCulloch Pitts Zelle nach MinskyDie Anfange der kunstlichen Neuronen gehen auf Warren McCulloch und Walter Pitts im Jahr 1943 zuruck Sie zeigen an einem vereinfachten Modell eines Neuronalen Netzes der McCulloch Pitts Zelle dass diese logische und arithmetische Funktionen berechnen kann nbsp Neuronale Verbindungen des Nagetier Hippocampus von Ramon y Cajal 1911 Die Hebbsche Lernregel wird im Jahr 1949 von Donald Hebb beschrieben Aufbauend auf der medizinischen Forschung von Santiago Ramon y Cajal der bereits 1911 die Existenz von Synapsen nachgewiesen hat werden nach dieser Regel wiederholt aktive Verbindungen zwischen Nervenzellen gestarkt Die Verallgemeinerung dieser Regel wird auch in den heutigen Lernverfahren noch verwendet Eine wichtige Arbeit kommt im Jahre 1958 mit dem Konvergenztheorem uber das Perzeptron heraus Dort zeigt Frank Rosenblatt dass es mit dem angegebenen Lernverfahren alle Losungen einlernen kann die mit diesem Modell reprasentierbar sind Jedoch zeigen die Kritiker Marvin Minsky und Seymour Papert 1969 dass ein einstufiges Perzeptron eine XOR Verknupfung nicht reprasentieren kann weil die XOR Funktion nicht linear separierbar linear trennbar ist erst spatere Modelle konnen diesen Missstand beheben Die so gezeigte Grenze in der Modellierung fuhrt zunachst zu einem abnehmenden Interesse an der Erforschung der kunstlichen neuronalen Netze sowie zu einer Streichung von Forschungsgeldern Ein Interesse an kunstlichen Neuronalen Netzen kommt erst wieder auf als John Hopfield die Hopfield Netze 1985 bekannt macht und zeigt dass sie in der Lage sind Optimierungsprobleme zu losen wie das Problem des Handlungsreisenden 1 Ebenfalls fuhrt die Arbeit zum Backpropagation Verfahren von David E Rumelhart Geoffrey E Hinton und Ronald J Williams ab 1986 zu einer Wiederbelebung der Erforschung dieser Netze Heute werden solche Netze in vielen Forschungsbereichen verwendet Biologische Motivation Bearbeiten nbsp Schematische Darstellung einer NervenzelleMotiviert sind kunstliche Neuronen durch die Nervenzellen der Saugetiere die auf die Aufnahme und Verarbeitung von Signalen spezialisiert sind Uber Synapsen werden Signale elektrisch oder chemisch an andere Nervenzellen oder Effektorzellen etwa zur Muskelkontraktion weitergeleitet Eine Nervenzelle besteht aus dem Zellkorper Axon und den Dendriten Dendriten sind kurze Zellfortsatze die stark verzweigt fur die Aufnahme von Signalen anderer Nervenzellen oder Sinneszellen sorgen Das Axon funktioniert als Signalausgang der Zelle und kann eine Lange von bis zu 1 m erreichen Der Ubergang der Signale erfolgt an den Synapsen welche erregend oder hemmend wirken konnen Die Dendriten der Nervenzelle leiten die eingehenden elektrischen Erregungen an den Zellkorper weiter Erreicht die Erregung einen gewissen Grenzwert und ubersteigt ihn entladt sich die Spannung und pflanzt sich uber das Axon fort Alles oder nichts Gesetz Die Verschaltung dieser Nervenzellen bildet die Grundlage fur die geistige Leistung des Gehirns Das Zentralnervensystem des Menschen besteht nach Schatzungen aus 1010 bis 1012 Nervenzellen die durchschnittlich 10 000 Verbindungen besitzen das menschliche Gehirn kann also mehr als 1014 Verbindungen besitzen 2 3 Das Aktionspotential im Axon kann sich mit einer Geschwindigkeit von bis zu 100 m s fortpflanzen Im Vergleich zu Logikgattern zeigt sich auch die Effizienz von Neuronen Wahrend Gatter im Nanosekunden Bereich 10 9 schalten unter einem Energieverbrauch von 10 6 Joule Daten von 1991 reagieren Nervenzellen im Millisekunden Bereich 10 3 und verbrauchen lediglich eine Energie von 10 16 Joule Trotz der augenscheinlich geringeren Werte in der Verarbeitung durch Nervenzellen konnen rechnergestutzte Systeme nicht an die Fahigkeiten biologischer Systeme heranreichen Die Leistung neuronaler Netze wird ebenfalls durch die 100 Schritt Regel demonstriert Die visuelle Erkennung beim Menschen findet in maximal 100 sequentiellen Verarbeitungsschritten statt die meist sequentiell arbeitenden Rechner erbringen keine vergleichbare Leistung Die Vorteile und Eigenschaften von Nervenzellen motivieren das Modell der kunstlichen Neuronen Viele Modelle und Algorithmen zu kunstlichen neuronalen Netzen entbehren dennoch einer direkt plausiblen biologischen Motivierung Dort findet sich diese nur im Grundgedanken der abstrakten Modellierung der Nervenzelle Modellierung BearbeitenMit der Biologie als Vorbild wird nun durch eine passende Modellbildung eine fur die Informationstechnik verwendbare Losung gefunden Durch eine grobe Verallgemeinerung wird das System vereinfacht unter Erhaltung der wesentlichen Eigenschaften Die Synapsen der Nervenzelle werden hierbei durch die Addition gewichteter Eingaben abgebildet die Aktivierung des Zellkerns durch eine Aktivierungsfunktion mit Schwellenwert Die Verwendung eines Addierers und Schwellenwerts findet sich so schon in der McCulloch Pitts Zelle von 1943 Bestandteile Bearbeiten nbsp Darstellung eines kunstlichen Neurons mit seinen Elementen nbsp Lineare Trennung durch Trennebene fur die KonjunktionEin kunstliches Neuron mit dem Index j displaystyle j nbsp und den n Eingangen indiziert mit i displaystyle i nbsp kann durch vier Basiselemente beschrieben werden Gewichtung Jeder Eingang bekommt ein Gewicht Die Gewichte w i j displaystyle w ij nbsp Eingang i displaystyle i nbsp bei Neuron j displaystyle j nbsp bestimmen den Grad des Einflusses den die Eingaben des Neurons in der Berechnung der spateren Aktivierung einnehmen Abhangig von den Vorzeichen der Gewichte kann eine Eingabe hemmend inhibitorisch oder erregend exzitatorisch wirken Ein Gewicht von 0 markiert eine nicht existente Verbindung zwischen zwei Knoten Ubertragungsfunktion Die Ubertragungsfunktion S displaystyle Sigma nbsp berechnet anhand der Gewichtung der Eingaben die Netzeingabe des Neurons Aktivierungsfunktion Die Ausgabe des Neurons wird schliesslich durch die Aktivierungsfunktion f displaystyle varphi nbsp bestimmt Die Aktivierung wird beeinflusst durch die Netzeingabe aus der Ubertragungsfunktion sowie einem Schwellenwert Schwellenwert Das Addieren eines Schwellenwerts 8 j displaystyle theta j nbsp zur Netzeingabe verschiebt die gewichteten Eingaben Die Bezeichnung ergibt sich aus der Verwendung einer Schwellenwertfunktion als Aktivierungsfunktion bei der das Neuron aktiviert wird wenn der Schwellenwert uberschritten ist Die biologische Motivierung dabei ist das Schwellenpotential bei Nervenzellen Mathematisch gesehen wird die Trennebene die den Merkmalsraum auftrennt durch einen Schwellenwert mit einer Translation verschoben Durch einen Verbindungsgraphen werden folgende Elemente festgelegt Eingaben Eingaben x i displaystyle x i nbsp konnen einerseits aus dem beobachteten Prozess resultieren dessen Werte dem Neuron ubergeben werden oder wiederum aus den Ausgaben anderer Neuronen stammen Sie werden auch so dargestellt nbsp Aktivierung oder Ausgabe Das Ergebnis der Aktivierungsfunktion wird analog zur Nervenzelle als Aktivierung o j displaystyle o j nbsp o fur output des kunstlichen Neurons mit dem Index j displaystyle j nbsp bezeichnet Mathematische Definition Bearbeiten Das kunstliche Neuron als Modell wird in der Literatur meist auf dem folgenden Weg eingefuhrt Zuerst wird die Aktivierung v displaystyle v nbsp in der Abbildung oben als Netzeingabe oder net bezeichnet des kunstlichen Neurons durch v i 1 n x i w i w 0 displaystyle v sum i 1 n x i w i w 0 nbsp definiert Da die Mathematik den Index 0 9 und die Anzahl 10 im Allgemeinen nicht unterscheidet wird als mathematische Vereinfachung normalerweise eine synthetische Eingabe x 0 1 displaystyle x 0 1 nbsp eingefuhrt und man schreibt v i 0 n x i w i displaystyle v sum i 0 n x i w i nbsp o f v displaystyle o varphi v nbsp Dabei ist n displaystyle n nbsp die Anzahl der Eingaben x i displaystyle x i nbsp die Eingabe mit dem Index i displaystyle i nbsp die sowohl diskret als auch stetig sein kann w i displaystyle w i nbsp die Gewichtung der Eingabe mit dem Index i displaystyle i nbsp f displaystyle varphi nbsp die Aktivierungsfunktion und o displaystyle o nbsp die Ausgabe englisch output Aktivierungsfunktionen BearbeitenAls Aktivierungsfunktion f displaystyle varphi nbsp konnen verschiedene Funktionstypen verwendet werden abhangig von der verwendeten Netztopologie Eine solche Funktion kann nicht linear zum Beispiel sigmoid stuckweise linear oder eine Sprungfunktion sein Im Allgemeinen sind Aktivierungsfunktionen monoton steigend Lineare Aktivierungsfunktionen unterliegen einer starken Beschrankung da eine Komposition linearer Funktionen durch arithmetische Umformungen durch eine einzige lineare Funktion dargestellt werden kann Fur mehrschichtige Verbindungsnetzwerke sind sie deswegen nicht geeignet und finden so nur in einfachen Modellen Anwendung Beispiele fur grundlegende Aktivierungsfunktionen sind Schwellenwertfunktion Bearbeiten nbsp SchwellenwertfunktionDie Schwellenwertfunktion engl hard limit wie sie im Folgenden definiert ist nimmt nur die Werte 0 displaystyle 0 nbsp oder 1 displaystyle 1 nbsp an Den Wert 1 fur die Eingabe v 0 displaystyle v geq 0 nbsp sonst 0 displaystyle 0 nbsp Bei subtraktiver Verwendung eines Schwellenwerts 8 displaystyle theta nbsp wird die Funktion nur aktiviert wenn die zusatzliche Eingabe den Schwellenwert ubersteigt Ein Neuron mit einer solchen Funktion wird auch McCulloch Pitts Zelle genannt Sie spiegelt die Alles oder nichts Eigenschaft des Modells wider f hlim v 1 wenn v 0 0 wenn v lt 0 displaystyle varphi text hlim v begin cases 1 amp text wenn v geq 0 0 amp text wenn v lt 0 end cases nbsp Ein Neuron mit dieser Aktivierungsfunktion wird auch so dargestellt nbsp Stuckweise lineare Funktion Bearbeiten nbsp Stuckweise lineare FunktionDie hier verwendete stuckweise lineare Funktion engl piecewise linear bildet ein begrenztes Intervall linear ab die ausseren Intervalle werden auf einen konstanten Wert abgebildet f pwl v 1 wenn v 1 2 v 1 2 wenn 1 2 lt v lt 1 2 0 wenn v 1 2 displaystyle varphi text pwl v begin cases 1 amp text wenn v geq frac 1 2 v frac 1 2 amp text wenn frac 1 2 lt v lt frac 1 2 0 amp text wenn v leq frac 1 2 end cases nbsp Ein Neuron mit der stuckweise linearen Funktion als Aktivierungsfunktion wird auch folgendermassen dargestellt nbsp Sigmoidfunktion Bearbeiten nbsp Sigmoide Funktion mit Steigungsmass a 5 displaystyle a 5 nbsp sowie a 10 displaystyle a 10 nbsp Sigmoide Funktionen als Aktivierungsfunktion sind sehr haufig verwendete Abbildungen Sie besitzen wie hier definiert ein variables Steigungsmass a displaystyle a nbsp das die Krummung des Funktionsgraphen beeinflusst Eine spezielle Eigenschaft ist ihre Differenzierbarkeit die fur einige Verfahren wie den Backpropagation Algorithmus benotigt werden f a sig v 1 1 exp a v displaystyle varphi a text sig v frac 1 1 exp av nbsp Die Werte der obigen Funktionen liegen im Intervall 0 1 displaystyle 0 1 nbsp Fur das Intervall 1 1 displaystyle 1 1 nbsp lassen sich diese Funktionen entsprechend definieren Ein Neuron mit der Sigmoidfunktion wird auch so dargestellt nbsp Rectifier ReLU Bearbeiten nbsp Rectifier AktivierungsfunktionRectifier als Aktivierungsfunktion wird besonders in Deep Learning Modellen erfolgreich eingesetzt Sie ist als Positivteil ihres Arguments definiert f v max 0 v displaystyle varphi v max 0 v nbsp Beispiele BearbeitenDarstellung boolescher Funktionen Bearbeiten Mit kunstlichen Neuronen lassen sich boolesche Funktionen darstellen So konnen die drei Funktionen Konjunktion and Disjunktion or und Negation not unter Verwendung einer Schwellenwertfunktion f hlim displaystyle varphi text hlim nbsp wie folgt reprasentiert werden Konjunktion Disjunktion Negation nbsp Neuron das die Konjunktion reprasentiert nbsp Neuron das die Disjunktion reprasentiert nbsp Neuron das die Negation reprasentiertFur die Konjunktion zum Beispiel ist ersichtlich dass nur fur die booleschen Eingaben x 1 1 displaystyle x 1 1 nbsp und x 2 1 displaystyle x 2 1 nbsp die Aktivierung o f hlim w 1 x 1 w 2 x 2 8 f hlim 1 0 1 1 0 1 1 5 f hlim 0 5 1 displaystyle o varphi text hlim w 1 cdot x 1 w 2 cdot x 2 theta varphi text hlim 1 0 cdot 1 1 0 cdot 1 1 5 varphi text hlim 0 5 1 nbsp ergibt sonst 0 displaystyle 0 nbsp Einlernen eines Neurons Bearbeiten Anders als im vorherigen Beispiel bei dem die passenden Gewichtungen gewahlt wurden konnen Neuronen die zu reprasentierende Funktion erlernen Die Gewichtungen und der Schwellenwert werden anfangs mit zufalligen Werten belegt und anschliessend unter Verwendung eines Versuch und Irrtum Lernalgorithmus angepasst Wertetabelle der logischen Konjunktion x 1 displaystyle x 1 nbsp x 2 displaystyle x 2 nbsp x 1 and x 2 displaystyle x 1 text and x 2 nbsp 0 0 00 1 01 0 01 1 1Um die logische Konjunktion zu erlernen kann die Perzeptron Kriteriumsfunktion angewendet werden Sie addiert die Werte fehlerhaft erkannter Eingaben auf die Gewichtung hinzu um die Erkennung zu verbessern bis moglichst alle Eingaben richtig klassifiziert werden Die Aktivierungsfunktion ist hier analog zum vorherigen Beispiel die Schwellenwertfunktion f hlim displaystyle varphi text hlim nbsp Fur das Lernverfahren wird die Lernrate welche die Geschwindigkeit des Einlernens festlegt mit a 1 displaystyle alpha 1 nbsp gewahlt Somit entfallt eine explizite Erwahnung Statt den Schwellenwert als solchen anzugeben wird ein on Neuron Bias also ein konstanter Eingang x 0 1 displaystyle x 0 1 nbsp hinzugefugt Der Schwellenwert wird durch die Gewichtung w 0 8 displaystyle w 0 theta nbsp angegeben Um das Neuron auf die beiden moglichen Ausgaben 0 displaystyle 0 nbsp und 1 displaystyle 1 nbsp der Konjunktion zu trainieren werden die Eingaben fur die zugehorige Ausgabe 0 displaystyle 0 nbsp mit 1 displaystyle 1 nbsp multipliziert Die Ausgabe ist durch diesen Schritt nur dann 0 displaystyle 0 nbsp wenn die betreffende Eingabe fehlerhaft klassifiziert wurde Dieses Vorgehen vereinfacht die Betrachtung beim Einlernen und die spatere Gewichtungsanpassung Danach sieht die Lerntabelle folgendermassen aus Lerntabelle Eingabenx 0 displaystyle x 0 nbsp x 1 displaystyle x 1 nbsp x 2 displaystyle x 2 nbsp 1 0 0 1 0 1 1 1 01 1 1Der Eingang x 0 displaystyle x 0 nbsp hat bei den Eingangen den Wert 1 displaystyle 1 nbsp bei denen das Neuron am Ende 0 displaystyle 0 nbsp ausgeben soll Fur die Ausgangssituation werden die Gewichtungen zufallig gewahlt Gewicht Anfanglicher Wert Bedeutungw 0 displaystyle w 0 nbsp 8 displaystyle theta nbsp 0 0 1 Darstellung des Schwellenwertsw 1 displaystyle w 1 nbsp 0 0 6 Gewichtung der ersten Eingabe x 1 displaystyle x 1 nbsp w 2 displaystyle w 2 nbsp 0 3 Gewichtung der zweiten Eingabe x 2 displaystyle x 2 nbsp Zum Testen der Gewichtungen werden diese in ein Neuron mit drei Eingangen und dem Schwellenwert 8 0 displaystyle theta 0 nbsp eingesetzt Fur die gewahlten Gewichte sieht die Ausgabe wie folgt aus Ausgabe des Neurons mit zufalligen Gewichten Eingaben Ausgabex 0 displaystyle x 0 nbsp x 1 displaystyle x 1 nbsp x 2 displaystyle x 2 nbsp 1 0 0 0 1 0 1 1 1 1 0 01 1 1 1Die erste und dritte Eingabe werden falsch berechnet und das Neuron gibt 0 displaystyle 0 nbsp aus Nun findet die Perzeptron Kriteriumsfunktion ihre Anwendung Durch die Addition mit den falsch erkannten Eingaben werden die zugehorigen Gewichte durch w i n e u w i a l t j a t j o j x i displaystyle w i mathrm neu w i mathrm alt sum j alpha cdot t j o j cdot x i nbsp korrigiert Dabei ist j displaystyle j nbsp die Nummer der Eingabe t j displaystyle t j nbsp die gewunschte Ausgabe o j displaystyle o j nbsp die tatsachliche Ausgabe x i displaystyle x i nbsp die Eingabe des Neurons und a gt 0 displaystyle alpha gt 0 nbsp der Lerngeschwindigkeits Koeffizient Gewichtsanpassung im ersten Schritt Schritt Gewicht Vorheriger Wert Neuer Wert1 w 0 displaystyle w 0 nbsp 0 0 1 w 0 1 w 0 0 1 1 1 9 displaystyle w 0 1 w 0 0 1 1 1 9 nbsp w 1 displaystyle w 1 nbsp 0 0 6 w 1 1 w 1 0 0 1 0 4 displaystyle w 1 1 w 1 0 0 1 0 4 nbsp w 2 displaystyle w 2 nbsp 0 3 w 2 1 w 2 0 0 0 0 3 displaystyle w 2 1 w 2 0 0 0 0 3 nbsp Uberprufung Eingaben Ausgabex 0 displaystyle x 0 nbsp x 1 displaystyle x 1 nbsp x 2 displaystyle x 2 nbsp 1 0 0 1 1 0 1 1 1 1 0 11 1 1 0Die Uberprufung nach der Gewichtungsanderung zeigt dass statt der ersten und dritten Eingabe nun die vierte Eingabe falsch klassifiziert wird Die Ausfuhrung eines weiteren Schrittes des Lernverfahrens verbessert die Erkennungsfunktion des Neurons Gewichtsanpassung im zweiten Schritt Schritt Gewicht Vorheriger Wert Neuer Wert2 w 0 displaystyle w 0 nbsp 1 9 w 0 2 w 0 1 1 0 9 displaystyle w 0 2 w 0 1 1 0 9 nbsp w 1 displaystyle w 1 nbsp 0 4 w 1 2 w 1 1 1 0 6 displaystyle w 1 2 w 1 1 1 0 6 nbsp w 2 displaystyle w 2 nbsp 0 3 w 2 2 w 2 1 1 0 7 displaystyle w 2 2 w 2 1 1 0 7 nbsp Uberprufung Eingaben Ausgabex 0 displaystyle x 0 nbsp x 1 displaystyle x 1 nbsp x 2 displaystyle x 2 nbsp 1 0 0 1 1 0 1 1 1 1 0 11 1 1 1Nun sieht man dass das Neuron die vorgegebene Funktion erlernt hat und alle vier Eingaben richtig berechnet Unter Verwendung der Eingabe x 1 1 displaystyle x 1 1 nbsp und x 2 1 displaystyle x 2 1 nbsp und die Wahl von 8 w 0 displaystyle theta w 0 nbsp folgt nun die Aktivierung o f hlim w 0 x 0 w 1 x 1 w 2 x 2 f hlim w 1 x 1 w 2 x 2 8 f hlim 0 6 1 0 7 1 0 9 f hlim 0 4 1 displaystyle begin matrix o amp amp varphi text hlim w 0 cdot x 0 w 1 cdot x 1 w 2 cdot x 2 varphi text hlim w 1 cdot x 1 w 2 cdot x 2 theta amp amp varphi text hlim 0 6 cdot 1 0 7 cdot 1 0 9 varphi text hlim 0 4 1 end matrix nbsp Fur die anderen drei Eingaben die fur das Einlernen mit 1 displaystyle 1 nbsp multipliziert wurden ergibt sich nun der Wert 0 displaystyle 0 nbsp So folgt aus der Eingabe x 1 0 displaystyle x 1 0 nbsp und x 2 1 displaystyle x 2 1 nbsp die Aktivierung o f hlim 0 6 0 0 7 1 0 9 f hlim 0 2 0 displaystyle o varphi text hlim 0 6 cdot 0 0 7 cdot 1 0 9 varphi text hlim 0 2 0 nbsp Ohne bestimmte Gewichtungen vorzugeben hat das Neuron gelernt anhand der Vorgaben die Konjunktion wie im ersten Beispiel darzustellen Anwendungskraft eines einzelnen Neurons BearbeitenEin kunstliches Neuron ist in der Lage auch ohne ein gesamtes Netzwerk maschinell zu lernen Die statistischen Fachausdrucke sind lineare Regression und Klassifizierung Damit konnen lineare Funktionen erlernt und linear trennbare Klassen unterschieden werden Mithilfe des sogenannten Kerneltricks konnen aber auch nichtlineare Modelle erlernt werden Demnach kann ein einzelnes Neuron ahnliche Ergebnisse auch wenn nicht ganz optimal wie SVMs erzielen Literatur BearbeitenSimon Haykin Neural Networks A Comprehensive Foundation Macmillan College Publishing Company New York 1994 ISBN 0 02 352761 7 Andreas Zell Simulation neuronaler Netze R Oldenbourg Verlag Munchen 1997 ISBN 3 486 24350 0 Jurgen Cleve Uwe Lammel Data Mining De Gruyter Oldenbourg Verlag Munchen 2014 ISBN 978 3 486 71391 6 Jurgen Cleve Uwe Lammel Kunstliche Intelligenz Hanser Verlag Munchen 2012 ISBN 978 3 446 42758 7 Weblinks BearbeitenTechnology Review Geist in der MaschineQuellen Bearbeiten J J Hopfield D Tank Neural Computation of Decisions in Optimization Space Biological Cybernetics Nr 52 S 141 152 1985 Patricia S Churchland Terrence J Sejnowski Grundlagen zur Neuroinformatik und Neurobiologie Friedr Vieweg amp Sohn Verlagsgesellschaft Braunschweig Wiesbaden 1997 ISBN 3 528 05428 X Werner Kinnebrock Neuronale Netze Grundlagen Anwendungen Beispiele R Oldenbourg Verlag Munchen 1994 ISBN 3 486 22947 8 nbsp Dieser Artikel wurde am 17 Juli 2006 in dieser Version in die Liste der lesenswerten Artikel aufgenommen Abgerufen von https de wikipedia org w index php title Kunstliches Neuron amp oldid 233612969 Bias