www.wikidata.de-de.nina.az
Ein Time Delay Neural Network TDNN zu deutsch etwa Zeitverzogertes Neuronales Netz ist ein mehrschichtiges kunstliches neuronales Netz das durch die Verwendung von Zeitfenstern uber mehrere Eingaben in der Lage ist zeitliche Abhangigkeiten von Eingaben zu verarbeiten Die Benennung ruhrt aus der Verwendung von Verzogerungselementen Delays her mit denen mehrere Zeitschritte parallel angelegt werden Schema eines TDNNs mit dargestellten Aktivierungen Ein kunstliches neuronales Netz ist ein Modell aus der Neuroinformatik das durch biologische neuronale Netze motiviert ist Kunstliche neuronale Netze konnen Aufgaben erlernen und werden haufig dort eingesetzt wo eine explizite Modellierung eines Problems schwierig oder unmoglich ist Beispiele sind die Gesichts und Spracherkennung Inhaltsverzeichnis 1 Struktur 2 Eigenschaften 3 Anwendung 4 LiteraturStruktur BearbeitenUm dem Netzwerk eine zeitlich invariante Verarbeitung zu erlauben werden bei einem TDNN die Eingaben mehrerer Zeitpunkte zugleich angelegt Die Verwendung mehrerer Schichten von Neuronen unterstutzt die Erkennung unabhangig vom zeitlichen Auftreten im Eingabestrom Die Eingaben werden bei einem TDNN in einer Matrix angeordnet Eine Spalte kann dabei mehrere Werte enthalten und entspricht einem Zeitschritt Bei jeder neuen Eingabe werden die Spalten der vergangenen Eingaben um einen Schritt verschoben wobei die alteste Eingabe herausfallt Die Eingabematrix wird dann an eine verdeckte Schicht gereicht die aus einer Matrix von Neuronen besteht Jede dortige Spalte von Neuronen erhalt dabei nur eine Auswahl Fenster der Eingaben Dieses Fenster wird fur die nachsten Spalten der Neuronenmatrix um jeweils einen Schritt verschoben Die Fensterbreite ist dabei frei wahlbar muss aber fur die gewunschte Invarianz geeignet bestimmt werden Es konnen mehrere hintereinander angeordnete verdeckte Schichten existieren Die Ausgabeschicht erhalt schliesslich das komplette Zeitfenster der vorhergehenden verdeckten Schicht Eingelernt werden konnen sie mit dem Backpropagation Verfahren Da die zur jeweiligen ersten Spalte der verdeckten Schichten zeitlich verschobenen Neuronen jeweils gleiche Eingaben aus vorherigen Zeitschritten erhalten und damit die gleiche Verarbeitung vornehmen sollen auch die Gewichte mit den Neuronen der ersten Spalte ubereinstimmen Dazu wird das Lernverfahren so abgeandert dass Neuronen verschiedener Zeitschritte die gleiche Anderung erfahren welche uber den Mittelwert der Gewichtsanderungen bestimmt wird Bei der Berechnung der Neuronenaktivierungen kann dabei eine Neuberechnung der zeitlich verschobenen Neuronen entfallen und stattdessen auf die Aktivierungen vorheriger Zeitschritte zuruckgegriffen werden Eigenschaften BearbeitenDurch diese schrittweise Verfeinerung wird sichergestellt dass das TDNN komplexe nicht lineare Eingaben verarbeitet und die Erkennung zeitlich invariant erfolgt Zusatzlich wird durch die Verschachtelung gewahrleistet dass die Anzahl der Verbindungen gering bleibt Nachteile eines TDNN ist die verwendete feste Fensterbreite Die konstante Zahl der dabei angelegten Eingaben ist eine starke Einschrankung fur Signale unterschiedlicher Lange Anwendung BearbeitenAngewendet werden TDNNs vor allem in der Spracherkennung Dort werden sie in verschiedenen Systemen entweder alleinstehend verwendet oder auch kombiniert mit alternativen Methoden wie den Hidden Markov Models und LSTM Netzwerken Literatur BearbeitenAlexander Waibel et al Phoneme Recognition Using Time Delay Neural Networks IEEE Transactions on Acoustics Speech and Signal Processing Band 37 Nr 3 S 328 339 Marz 1989 TDNN Fundamentals Kapitel aus dem Online Handbuch des SNNS Abgerufen von https de wikipedia org w index php title Time Delay Neural Network amp oldid 204989658