www.wikidata.de-de.nina.az
Kaskadenkorrelation englisch Cascade Correlation ist ein mathematisches konstruktives Verfahren zur Erzeugung und zum Training von kunstlichen neuronalen Netzen Veroffentlicht wurde Kaskadenkorrelation 1990 von Scott E Fahlman und Christian Lebiere in der Arbeit The Cascade Correlation Learning Architecture 1 Die Idee hinter Kaskadenkorrelation ist nicht nur das Training eines neuronalen Netzes sondern auch der Aufbau dessen Struktur konstruktives Verfahren Der grosse Vorteil dabei ist dass sich das neuronale Netzwerk in seiner Grosse an die Problemstellung Trainingsdaten anpasst Das Verfahren kommt insbesondere bei mehrschichtigen Feedforward Netzen zum Einsatz welche mittels Backpropagation trainiert werden Verfahren BearbeitenDer Algorithmus startet mit einem fur die Aufgabenstellung minimalen neuronalen Netz das nur aus Eingabezellen und Ausgabezellen besteht Die Neuronen sind dabei uber Gewichte vollstandig miteinander verbunden Das Training der Gewichte erfolgt nun mit Hilfe eines Lernverfahrens Quickprop Wird uber mehrere Trainingsepochen keine signifikante Verbesserung des Netzwerkfehlers mehr erreicht wird das Training beendet Die gefundenen Gewichte werden beibehalten und ein neues verdecktes Neuron wird zum Netzwerk hinzugefugt Das verdeckte Neuron Candidate Unit wird dabei zu einer bestehenden Hidden Layer hinzugefugt oder bildet einen neuen Layer Dabei erhalt es als Eingange Verbindungen von allen Eingabezellen und eventuell zuvor hinzugefugten verdeckten Zellen Der Ausgang des zugefugten Neurons hat vorerst keine Verbindung zum Netzwerk Es erfolgt nun das Training fur die Gewichte des neuen Neurons Ziel des Trainings ist es S j displaystyle S j nbsp die Summe der Betrage der Kovarianz zwischen o j displaystyle o j nbsp der Ausgabe der Candidate Unit und d k displaystyle delta k nbsp dem Restfehler der Ausgabezelle k uber alle Ausgabezellen zu maximieren S j k p o p j o j d p k d k displaystyle S j sum k left sum p o pj bar o j delta pk bar delta k right nbsp Hierbei ist j der Index der Candidate Unit k der Laufindex uber alle Ausgangsneuronen p der Index der Muster o j displaystyle bar o j nbsp die mittlere Ausgabe von Neuron j uber alle Muster p und d k displaystyle bar delta k nbsp der mittlere Fehler der Ausgabezellen k uber alle Muster p Der Fehler d k displaystyle delta k nbsp ist gegeben durch die Differenz zwischen erwunschten Ausgang und dem tatsachlichen Ausgang Ziel ist es S j displaystyle S j nbsp zu maximieren Daher muss die partielle Ableitung von S j displaystyle S j nbsp nach jedem Gewicht w i j displaystyle w ij nbsp der Zelle gebildet werden S j w i j k p s k f a c t n e t p j o p i d p k d k displaystyle frac partial S j partial w ij sum k sum p sigma k cdot f act net pj o pi delta pk bar delta k nbsp Mit der Definition s k s g n p o p j o j d p k d k displaystyle sigma k sgn left sum p o pj bar o j delta pk bar delta k right nbsp undo p j f a c t n e t p j displaystyle o pj f act left net pj right nbsp Ist die partielle Ableitung zu jedem Gewicht der Candidate Unit bestimmt kann ein Gradientenaufstieg durchgefuhrt werden Das Training wird so lange fortgesetzt bis keine wesentliche Veranderung von S j displaystyle S j nbsp mehr erfolgt Der Ausgang des zugefugten Neurons liefert nun ein maximales Ausgangssignal wenn der Fehler des restlichen Netzwerkes am grossten ist Die Gewichte der Candidate Unit werden jetzt permanent eingefroren und der Ausgang der Zelle vollstandig mit jedem vorhandenen Ausgangsneuronen verbunden Ein neues Training der Gewichte aller Ausgangsneuronen wird nun gestartet Ist nach dem Training der gewunschte Ausgangsfehler noch nicht erreicht wird wie oben beschrieben ein weiteres verdecktes Neuron dem Netzwerk zugefuhrt und trainiert Das Bild unten zeigt ein Kaskadenkorrelationsnetzwerk mit drei verdeckten Neuronen Die Gewichte sind hierbei als Quadrate auf den Verbindungsstellen zwischen Ausgangen und Eingangen der Neuronen dargestellt Das on Neuron dient fur alle Neuronen des Netzwerkes zur Einstellung der Ansprechschwelle es besitzt als Ausgabe immer den Wert 1 nbsp KaskadenkorrelationsnetzwerkBeim Kaskadenkorrelations Algorithmus werden verdeckte Zellen nur einmal trainiert und die gefundenen Gewichte nicht mehr verandert wahrend die Gewichte fur die Ausgangsneuronen in jedem Schritt neu angepasst werden Das Verfahren konvergiert verhaltnismassig gut da immer nur eine Schicht des Netzwerks trainiert wird Damit vermeidet man das Problem bei komplexen Netzwerken dass sich gleichzeitig alle Neuronen durch ein Training auf ein gegebenes Eingangsmuster anpassen wahrend sie nur mit lokale Informationen uber den zuruckpropagierten Fehler uber die direkten Nachbarn versorgt werden Implementierungen BearbeitenImplementierung der Kaskadenkorrelation finden sich in verschiedenen Softwareanwendungen darunter MemBrain SNNS JavaNNS TlearnLiteratur Bearbeiten Scott E Fahlman Christian Lebiere The Cascade Correlation Learning Architecture PDF 29 August 1991 abgerufen am 20 Oktober 2021 Abgerufen von https de wikipedia org w index php title Cascade Correlation amp oldid 222293869