www.wikidata.de-de.nina.az
Als Selbstorganisierende Karten Kohonenkarten oder Kohonennetze nach Teuvo Kohonen englisch self organizing map SOM bzw self organizing feature map SOFM bezeichnet man eine Art von kunstlichen neuronalen Netzen Sie sind als unuberwachtes Lernverfahren ein leistungsfahiges Werkzeug des Data Mining Ihr Funktionsprinzip beruht auf der biologischen Erkenntnis dass viele Strukturen im Gehirn eine lineare oder planare Topologie aufweisen Die Signale des Eingangsraums z B visuelle Reize sind jedoch multidimensional Es stellt sich also die Frage wie diese multidimensionalen Eindrucke durch planare Strukturen verarbeitet werden Biologische Untersuchungen zeigen dass die Eingangssignale so abgebildet werden dass ahnliche Reize nahe beieinander liegen Der Phasenraum der angelegten Reize wird also kartiert Wird nun ein Signal an diese Karte herangefuhrt so werden nur diejenigen Gebiete der Karte erregt die dem Signal ahnlich sind Die Neuronenschicht wirkt als topologische Merkmalskarte wenn die Lage der am starksten erregten Neuronen in gesetzmassiger und stetiger Weise mit wichtigen Signalmerkmalen korreliert ist Anwendung finden selbstorganisierende Karten zum Beispiel in der Computergrafik als Quantisierungsalgorithmus zur Farbreduktion von Rastergrafikdaten und zur Clusteranalyse Inhaltsverzeichnis 1 Laterale Umfeldhemmung 2 Struktur und Lernen 3 Training einer SOM im Beispiel 4 Formale Beschreibung des Trainings 5 Varianten der SOM 6 Literatur 7 WeblinksLaterale Umfeldhemmung BearbeitenEin allgemeines Arbeitsprinzip des Nervensystems ist dass aktive lokale Gruppen von Nervenzellen andere Gruppen ihrer Umgebung hemmen und somit deren Aktivitat unterdrucken siehe laterale Hemmung Die Aktivitat einer Nervenzelle wird daher aus der Uberlagerung des erregenden Eingangssignals und den hemmenden Beitragen aller Schichtneuronen bestimmt Da diese laterale Hemmung uberall gilt kommt es zu einem standigen Wettbewerb um die Vorherrschaft Der Verlauf der lateralen Hemmung ist fur kurze Distanzen erregend verstarkend und fur lange Distanzen hemmend schwachend Es lasst sich zeigen dass dieser Effekt ausreichend ist eine Lokalisierung der Erregungsantwort in der Nahe der maximalen ausseren Erregung zu bewirken Struktur und Lernen Bearbeiten nbsp Ein Adaptionsschritt Der Reiz 𝑣 zieht an dem Gewichtsvektor 𝑤 des am besten angepassten Neurons Dieser Zug wird mit zunehmendem Abstand gemessen im Competitive Layer vom besten Neuron zunehmend schwacher Einfach ausgedruckt beult sich die Karte in Richtung des Reizes 𝑣 aus Eine Eingabeschicht mit 𝑛 Neuronen ist vollstandig mit allen Neuronen innerhalb der Kohonenkarte der sogenannte competitive layer im Folgenden einfach Karte verbunden Jeder zu kartierende Eingangsreiz 𝑣 wird uber die Verbindungen an jedes Neuron dieser Karte weitergegeben Die Verbindungsgewichte 𝑤 zwischen den Neuronen der Eingabeschicht und den Neuronen in der Karte definieren je einen Punkt im Eingangsraum der angelegten Reize 𝑣 Alle Neuronen innerhalb der Karte sind untereinander inhibitorisch hemmend vernetzt Die Abbildung zeigt einen Adaptionsschritt im Modell von Kohonen Ein Reiz 𝑣 wird an das Netz angelegt Das Netz sucht das Erregungszentrum 𝑠 in der Karte dessen Gewichtsvektor 𝑤 am nachsten zu 𝑣 liegt kleinster Abstand Der Unterschied zwischen 𝑤 und 𝑣 wird in einem Adaptionsschritt verringert Die Neuronen nahe am Erregungszentrum 𝑠 werden auch adaptiert aber umso weniger je weiter sie vom Erregungszentrum entfernt sind Es ist gebrauchlich aber nicht zwingend sowohl fur die Lernvektoren als auch fur die Karte den euklidischen Abstand als Abstandsmass zu verwenden Steht ein Satz verschiedener Trainingsdaten zur Verfugung so ist eine Epoche im Training vollstandig wenn alle Reize genau einmal in zufalliger Reihenfolge an die Eingabeschicht angelegt worden sind Das Training endet wenn das Netz seinen stabilen Endzustand erreicht hat Das Lernen in einer selbstorganisierten Karte kann formal als iterativer Prozess beschrieben werden Im Anfangszustand sind die Gewichtsvektoren der Neuronen zufallig im Netz verteilt und in jedem Lernschritt wird an das Netz ein Reiz angelegt Die selbstorganisierende Karte verandert die Gewichtsvektoren der Neuronen entsprechend der Hebbschen Lernregel sodass sich im Laufe der Zeit eine topografische Abbildung ergibt Training einer SOM im Beispiel BearbeitenDie folgende Tabelle zeigt ein Netz dessen Neuronen in einem Gitter angeordnet sind und zu Beginn zufallig im Raum verteilt sind Es wird mit Eingabereizen aus dem Quadrat trainiert die gleichverteilt sind nbsp Zufallig initialisiertes Netz nbsp 10 Trainingschritte nbsp 100 Trainingsschritte nbsp 1 000 Trainingsschritte nbsp 10 000 Trainingsschritte nbsp 100 000 TrainingsschritteFormale Beschreibung des Trainings BearbeitenGegeben ist eine endliche Menge M von Trainingsstimuli mi die durch einen n dimensionalen Vektor xi spezifiziert sind M m i x i x i X R n i 1 m M displaystyle M m i x i mid x i in X subseteq mathbb R n i 1 mu M nbsp Weiterhin sei eine Menge von mN Neuronen gegeben denen jeweils ein Gewichtsvektor wi in X und eine Position ki auf einer Kohonen Karte zugeordnet wird die im Weiteren als zweidimensional angenommen wird Die Kartendimension kann beliebig dimensional gewahlt werden wobei Kartendimensionen kleiner gleich drei zur Visualisierung von hochdimensionalen Zusammenhangen verwendet werden Die Positionen auf der Karte sollen diskreten quadratischen Gitterpunkten entsprechen alternative Nachbarschaftstopologien wie z B hexagonale Topologien sind ebenfalls moglich und jeder Gitterpunkt soll durch genau ein Neuron besetzt sein N n i w i k i w i X R n k i K 2 i 1 m N displaystyle N n i w i k i mid w i in X subseteq mathbb R n k i in K 2 i 1 mu N nbsp In der Lernphase wird aus der Menge der Stimuli zum Prasentationszeitpunkt t ein Element mjt gleichverteilt zufallig ausgewahlt Dieser Stimulus legt auf der Karte ein Gewinnerneuron nst fest das als Erregungszentrum bezeichnet wird Es handelt sich dabei um genau das Neuron dessen Gewichtsvektor wst den geringsten Abstand im Raum X zu dem Stimulusvektor xjt besitzt wobei eine Metrik dX des Inputraumes gegeben sei d X x j t w s t m i n d X x j t w i t i 1 m N displaystyle d X x j t w s t min d X x j t w i t mid i 1 mu N nbsp Nachdem nst ermittelt wurde werden alle Neuronen nit bestimmt die neben dem Erregungszentrum ihre Gewichtsvektoren anpassen durfen Es handelt sich dabei um die Neuronen deren Entfernung dA ks ki auf der Karte nicht grosser ist als ein zeitabhangiger Schwellenwert der als Entfernungsreichweite dt bezeichnet wird wobei eine Metrik dA der Karte gegeben sei Diese Neuronen werden in einer Teilmenge N t Nt zusammengefasst N t n i w i k i d A k s k i d t displaystyle N t n i w i k i mid d A k s k i leq delta t nbsp Im folgenden Adaptionsschritt wird auf alle Neuronen aus N t ein Lernschritt angewendet der die Gewichtsvektoren verandert Der Lernschritt ist interpretierbar als eine Verschiebung der Gewichtsvektoren in Richtung des Stimulusvektors xjt Es wird entsprechend dem Modell von Ritter et al 1991 dabei die folgende Adaptionsregel verwendet w s t 1 w s t ϵ t h s i t x j w s t displaystyle w s t 1 w s t epsilon t cdot h si t cdot x j w s t nbsp mit den zeitabhangigen Parametergleichungen et und hsit die festgelegt werden als 1 Die zeitabhangige Lernrate et ϵ t ϵ start ϵ end ϵ start t t max displaystyle epsilon t epsilon text start cdot left frac epsilon text end epsilon text start right frac t t text max nbsp mit der Startlernrate estart und eend als der Lernrate zum Ende des Verfahrens d h nach tmax Stimulusprasentationen 2 Die zeitabhangige Entfernungsgewichtungsfunktion hsit h s i t e d A k s k i 2 2 d t 2 displaystyle h si t e frac d A k s k i 2 2 cdot delta t 2 nbsp mit dt als dem Nachbarschafts oder Adaptionsradius um das Gewinner Neuron auf der Karte d t d start d end d start t t max displaystyle delta t delta text start cdot left frac delta text end delta text start right frac t t text max nbsp mit dem Adaptionsradius dstart zum Anfang des Verfahrens und dend als dem Adaptionsradius zum Ende des Verfahrens Damit eine topologie erhaltende Abbildung entsteht d h dass benachbarte Punkte im Inputraum X auf benachbarte Punkte auf der Karte abgebildet werden mussen zwei Faktoren berucksichtigt werden Die topologische Nachbarschaft hsit um das Erregungszentrum muss anfangs gross gewahlt und im Laufe des Verfahrens verkleinert werden Die Adaptionsstarke et muss ausgehend von einem grossen Wert im Laufe des Verfahrens auf einen kleinen Restwert sinken In dem dargestellten Lernprozess werden tmax Prasentationen durchgefuhrt wonach die SOM in die Anwendungsphase uberfuhrt werden kann in der Stimuli prasentiert werden die in der Lernmenge nicht vorkamen Ein solcher Stimulus wird dem Gewinnerneuron zugeordnet dessen Gewichtsvektor die geringste Distanz von dem Stimulusvektor besitzt sodass dem Stimulus uber den Umweg des Gewichtsvektors ein Neuron und eine Position auf der Neuronenkarte zugeordnet werden kann Auf diese Weise wird der neue Stimulus automatisch klassifiziert und visualisiert Varianten der SOM BearbeitenEs wurden eine Vielzahl von Varianten und Erweiterungen zu dem ursprunglichen Modell von Kohonen entwickelt u a Kontext SOM K SOM Temporare SOM T SOM Motorische SOM M SOM Neuronen Gas NG SOM Wachsende Zellstrukturen GCS SOM Wachsende Gitterstruktur GG SOM Wachsende hierarchische SOM GH SOM Wachsendes Neuronen Gas GNG SOM Parametrische SOM P SOM Hyperbolische SOM H SOM Interpolierende SOM I SOM Local Weighted Regression SOM LWR SOM Selektive Aufmerksamkeits SOM SA SOM Gelernte Erwartungen in GNG SOMs LE GNG SOM Fuzzy SOM F SOM Adaptive Subraum SOM AS SOM Generative Topographische Karte GTM Literatur BearbeitenGunter Bachelier Einfuhrung in selbstorganisierende Karten Tectum Verlag Marburg 1998 ISBN 3 8288 5017 0 Teuvo Kohonen Self Organizing Maps Springer Verlag Berlin 1995 ISBN 3 540 58600 8 Helge Ritter Thomas Martinetz Klaus Schulten Neuronale Netze Eine Einfuhrung in die Neuroinformatik selbstorganisierender Netzwerke Addison Wesley Bonn 1991 ISBN 3 89319 131 3Weblinks Bearbeiten nbsp Commons Selbstorganisierende Karte Sammlung von Bildern Videos und Audiodateien DemoGNG js JavaScript Simulator fur SOMs und andere Netzwerkmodelle Neural Gas Growing Neural Gas Growing Grid etc ANNetGPGPU C Library mit einer Implementierung fur SOMs auf GPUs und CPUs und Python Interface SOM Research an der Helsinki University of Technology Teuvo Kohonen Uber SOM in der comp ai neural nets FAQ Java SOMToolbox Open Source Anwendung zum Erstellen Analysieren und Interagieren mit Selbstorganisierenden Karten entwickelt an der Technischen Universitat Wien Ultsch Marburg Datenbionik Datenvisualisierung und Data Mining mit Emergenten SOM MusicMiner Visualisierung von Musiksammlungen ESOM GNOD The Global Network of Dreams ein Kohonen Netz zur Bestimmung von Ahnlichkeiten von Musik Film und Buchautoren Demonstrationsbeispiel HTW Dresden ein SOM fangt einen Ball Viscovery SOMine SOM Technologie Tool von Viscovery Neural Networks with Java Abgerufen von https de wikipedia org w index php title Selbstorganisierende Karte amp oldid 230673846