www.wikidata.de-de.nina.az
Eine Boltzmann Maschine ist in der Art ein rekurrentes neuronales Netz das nach dem osterreichischen Wissenschaftler Ludwig Boltzmann benannt wurde Entwickelt wurde sie von Geoffrey Hinton und Terrence J Sejnowski im Jahre 1985 Die Boltzmann Maschine wird auch stochastisches Hopfield Netz mit versteckten Einheiten genannt 1 Beschrankt man die Verbindungen zwischen den Neuronen lasst sich der Lernvorgang stark vereinfachen wodurch Beschrankte Boltzmann Maschinen sich zur Losung praktischer Probleme einsetzen lassen Eine graphische Reprasentation einer Boltzmann Maschine mit 3 Hidden Units und 4 Visible Units Inhaltsverzeichnis 1 Funktionsweise 2 Aufbau 3 Restricted Boltzmann Machine 4 Weblinks 5 EinzelnachweiseFunktionsweise BearbeitenDie Funktionsweise der Boltzmann Maschine basiert auf der Boltzmann Verteilung die besagt dass der aktuelle Zustand eines physikalischen Systems von der Energie und der Temperatur des Systems abhangt Um Boltzmann Maschinen als neuronale Netze zu implementieren verwendet man daher die Energiemodelle Der Energie entspricht die Abweichung von der tatsachlichen Antwort Je hoher die Energie desto grosser die Abweichung Es ist daher wichtig das Modell zu trainieren bis es einen Niedrigenergiepunkt erreicht Ein solches theoretisches Modell leidet unter dem Problem lokaler Minima und liefert weniger genaue Ergebnisse Dieses Problem wurde gelost indem dem Modell erlaubt wurde periodische Sprunge zu einem hoheren Energiezustand zu machen und dann zuruck zu den Minima zu konvergieren was schliesslich zu den globalen Minima fuhrt Wenn Boltzmann Maschinen beim Lernen eingesetzt werden versuchen sie wichtige Merkmale aus der Eingabe abzuleiten diese Eingabe zu rekonstruieren und sie durch parallele Aktualisierung von Gewichten als Ausgabe wiederzugeben Boltzmann Maschinen eignen sich gut um ein Problem der Erfullung von Einschrankungen zu losen selbst wenn es schwache Einschrankungen hat Ein Problem mit schwachen Einschrankungen versucht eine Losung zu erhalten die nahe genug an einer Losung sein kann die alle Einschrankungen vollstandig erfullt d h die Losung muss nicht alle Einschrankungen vollstandig erfullen Boltzmann Maschinen haben keine klare Abgrenzung zwischen Eingabeschicht und Ausgabeschicht Die Knoten in Boltzmann Maschinen werden einfach als sichtbare und unsichtbare Knoten kategorisiert Die sichtbaren Knoten nehmen die Eingabe auf Dieselben Knoten die die Eingabe aufnehmen geben die rekonstruierte Eingabe als Ausgabe zuruck Dies wird durch bidirektionale Gewichtungen erreicht die sich ruckwarts ausbreiten und die Ausgabe auf den sichtbaren Knoten rendern Ein wesentlicher Vorteil der Architektur besteht darin dass jeder Knoten mit allen anderen Knoten verbunden ist Alle Verbindungen sind bidirektional und die Gewichtungen sind symmetrisch 2 Aufbau BearbeitenEine Boltzmann Maschine ist wie ein Hopfield Netz ein Netz von Neuronen in dem ein Energieniveau definiert ist Wie bei Hopfield Netzen nehmen die Neuronen nur binare Werte 0 oder 1 an verhalten sich im Gegensatz jedoch stochastisch Das Energieniveau E displaystyle E nbsp einer Boltzmann Maschine ist so definiert wie bei einem Hopfield Netz E 1 2 i j s i w i j s j i 8 i s i displaystyle E frac 1 2 sum i sum j s i w ij s j sum i theta i s i nbsp wobei gilt w i j displaystyle w ij nbsp ist das Gewicht der Verbindung zwischen Neuron i displaystyle i nbsp und j displaystyle j nbsp s i displaystyle s i nbsp ist der Zustand s i 0 1 displaystyle s i in 0 1 nbsp des Neurons i displaystyle i nbsp 8 i displaystyle theta i nbsp ist der Schwellwert eines Neurons i displaystyle i nbsp 8 i displaystyle theta i nbsp ist der Wert ab dem ein Neuron aktiviert wird Die Verbindungen einer Boltzmann Maschine haben zwei Beschrankungen w i i 0 i displaystyle w ii 0 qquad forall i nbsp Kein Neuron hat eine Verbindung mit sich selbst w i j w j i i j displaystyle w ij w ji qquad forall i j nbsp Alle Verbindungen sind symmetrisch Die Gewichtungen lassen sich in Form einer symmetrischen Matrix W displaystyle W nbsp darstellen deren Hauptdiagonale aus Nullen besteht Die Veranderung des Energieniveaus die sich ergibt wenn ein einzelnes Neuron i displaystyle i nbsp vom Zustand s i 1 displaystyle s i 1 nbsp zum Zustand s i 0 displaystyle s i 0 nbsp wechselt betragt D E i E s i 1 E s i 0 j i w i j s j 8 i displaystyle Delta E i E s i 1 E s i 0 sum j neq i w ij s j theta i nbsp Mit den Grossen der Boltzmann Verteilung kann dies wie folgt geschrieben werden D E i k B T ln P s i 1 k B T ln P s i 0 displaystyle Delta E i k B T ln P s i 1 k B T ln P s i 0 nbsp Daraus folgt D E i k B T ln P s i 1 ln P s i 0 ln P s i 1 ln 1 P s i 1 displaystyle frac Delta E i k B T ln P s i 1 ln P s i 0 ln P s i 1 ln 1 P s i 1 nbsp Aufgelost nach der Wahrscheinlichkeit dass das Neuron i displaystyle i nbsp den Zustand s i 1 displaystyle s i 1 nbsp hat folgt daraus P s i 1 1 1 e D E i k B T displaystyle P s i 1 frac 1 1 e frac Delta E i k B T nbsp Das bedeutet dass die Wahrscheinlichkeit dass ein Neuron aktiv ist eine logistische Funktion der skalierten Veranderung des Energieniveaus zwischen seinem aktiven und inaktiven Zustand ist Genau wie beim Hopfield Netz tendiert die Boltzmann Maschine dazu den Wert der so definierten Energie bei aufeinanderfolgenden Aktualisierungen zu verringern letztendlich also zu minimieren bis ein stabiler Zustand erreicht ist 3 Restricted Boltzmann Machine BearbeitenEine sog Restricted Boltzmann Machine RBM besteht aus sichtbaren Einheiten engl visible units und versteckten Einheiten hidden units An die sichtbaren Einheiten wird der Feature Vektor angelegt Das restricted englisch fur beschrankt bezeichnet die Tatsache dass weder die sichtbaren Einheiten noch die versteckten Einheiten innerhalb dieser Gruppen untereinander verbunden sind Allerdings sind die sichtbaren Einheiten mit den versteckten Einheiten vollstandig verbunden Sie bilden also einen bipartiten ungerichteten Graphen Dies ist im Folgenden dargestellt nbsp Die zu lernenden Parameter sind die Gewichte der Kanten zwischen sichtbaren und versteckten Einheiten sowie die Bias Vektoren b h b v displaystyle b h b v nbsp der versteckten und der sichtbaren Einheiten Diese werden uber den Contrastive Divergence Algorithmus gelernt 4 Restricted Boltzmann Machines wurden zum kollaborativen Filtern auf Netflix eingesetzt 5 Weblinks BearbeitenScholarpedia Artikel von Geoffrey Hinton uber Boltzmann machines englisch Vortrag von Geoffrey Hinton englisch Einzelnachweise Bearbeiten Boltzmann Maschine Abgerufen am 10 April 2022 Vihar Kurama PaperspaceBlog Beginner s Guide to Boltzmann Machines in PyTorch Christian Borgelt Hopfield Networks and Boltzmann Machines Geoffrey Hinton A practical guide to training restricted Boltzmann machines 2010 Ruslan Salakhutdinov Andriy Mnih Geoffrey Hinton Restricted Boltzmann machines for collaborative filtering In Proceedings of the 24th international conference on Machine learning 2007 S 791 798 Normdaten Sachbegriff GND 4247316 0 lobid OGND AKS Abgerufen von https de wikipedia org w index php title Boltzmann Maschine amp oldid 234865032