www.wikidata.de-de.nina.az
Foderales Lernen beschreibt eine Technik im Bereich des maschinellen Lernens bei der ein Modell auf mehreren Geraten trainiert wird Jedes teilnehmende Gerat verfugt uber einen eigenen lokalen Datensatz der nicht mit anderen Teilnehmern ausgetauscht wird Im Gegensatz dazu gibt es beim herkommlichen maschinellen Lernen einen zentralen Datensatz Durch diese Technik bauen mehrere Teilnehmer ein gemeinsames robustes Modell unter Berucksichtigung kritischer Probleme wie Datenschutz Datensicherheit Zugriffsrechte und Zugang zu heterogenen Daten auf Die Technik wird in vielen Bereichen wie in der Verteidigung der Telekommunikation dem Internet der Dinge und dem Gesundheitswesen angewandt Inhaltsverzeichnis 1 Definition und Merkmale 1 1 Zentralisierter Ansatz 1 2 Dezentralisierter Ansatz 1 3 Iteratives Lernen 2 Eigenschaften 2 1 Privacy by Design 2 2 Personalisierung 2 3 Kommunikationsaufwand 3 EinzelnachweiseDefinition und Merkmale BearbeitenFoderales Lernen zielt darauf ab ein Machine Learning Modell wie tiefe neuronale Netze auf mehreren teilnehmenden Knoten mit jeweils lokalen Datensatzen zu trainieren ohne die Daten explizit auszutauschen Das kann dadurch geschehen dass das Modell auf allen Knoten einzeln trainiert wird und sich die Teilnehmer die Aktualisierungen der Modellparameter in regelmassigen Abstanden gegenseitig mitteilen Dadurch kann ein gemeinsames Modell hergestellt werden Der wesentliche Unterschied zwischen foderalem und verteiltem Lernen besteht in den Annahmen uber die Eigenschaften der lokalen Datensatze 1 Wahrend verteiltes Lernen primar auf die Parallelisierung der Berechnungen abzielt ist der Hauptaspekt von foderalem Lernen die Heterogenitat der Daten Beim verteilten Lernen findet sich gewohnlich die Annahme dass die lokalen Datensatze identisch verteilt sind und die Knoten uber in etwa die gleiche Datenmenge verfugen Im Gegensatz dazu muss beim foderalen Lernen eine identische Verteilung und eine gleiche Datenumfang nicht gegeben sein Daruber hinaus konnen Teilnehmer bezuglich ihrer Verfugbarkeit unzuverlassig sein bspw Smartphones oder IoT Gerate 2 Zentralisierter Ansatz Bearbeiten nbsp Ablauf des zentralisierten foderalen LernensBeim zentralisierten foderalen Lernen wird ein zentraler Server genutzt um die verschiedenen Schritte des Lernprozesses auf den teilnehmenden Knoten zu koordinieren Der Server ist fur die Knotenauswahl am Anfang des Trainings und das Zusammenfugen der Modellparameteraktualisierungen zustandig Da alle Knoten uber den Server kommunizieren kann er zum Flaschenhals werden Dezentralisierter Ansatz Bearbeiten Beim dezentralisierten foderalen Lernen koordinieren die teilnehmenden Knoten sich selbst um ein gemeinsames Modell zu erhalten Dadurch wird beim Ausfall eines einzelnen Teilnehmers der Ausfall des gesamten Systems verhindert 2 Iteratives Lernen Bearbeiten Das Training eines gemeinsamen Modells erfolgt in einem iterativen Prozess Je nach Ansatz wird das globale Modell zunachst zu den Nodes ubertragen Anschliessend erfolgt dort das lokale Training Die Aktualisierungen der Modellparameter werden dem zentralen Koordinator oder den anderen Teilnehmern direkt ubertragen und dort aggregiert und verarbeitet um ein aktualisiertes globales Modell zu erstellen 2 Eigenschaften BearbeitenPrivacy by Design Bearbeiten Ein grosser Vorteil von foderalem Lernen besteht darin dass lokale Datensatze nicht zusammengefuhrt und zu einem zentralen Rechner ubertragen werden mussen wodurch der Datenschutz einfacher gewahrleistet werden kann Stattdessen werden wahrend des Trainings nur Modellparameter oder Parameteraktualisierungen ubertragen Die Aktualisierungen konnen zusatzlich verschlusselt werden um den Datenschutz weiter zu verbessern zum Beispiel durch eine homomorphe Verschlusselung die es erlaubt bestimmte Berechnungen durchzufuhren ohne die Daten vorher zu entschlusseln Trotz solcher Vorkehrungen konnen Parameter weiterhin Informationen uber die zugrundeliegenden Daten preisgeben Personalisierung Bearbeiten Das erstellte Modell kann fur Vorhersagen erstellen die auf Mustern basieren die von allen Knoten gemeinsam gelernt wurden Daruber hinaus ist es moglich weitere lokale Modelle zu erstellen die auf die Besonderheiten eines Teilnehmers angepasst sind sogenanntes Multi Task Learning Die Teilnehmer konnen dazu auch in Cluster eingeteilt werden die Gemeinsamkeiten aufweisen 3 Im Falle von tiefen neuronalen Netzen ist es zum Beispiel moglich die ersten Schichten zwischen allen Knoten zu teilen und die letzten nur lokal zu trainieren 4 Kommunikationsaufwand Bearbeiten Es ist bekannt dass hohe Kommunikations Overheads aufgrund haufiger Gradientenubertragungen FL verlangsamen Um die Kommunikations Overheads abzuschwachen wurden zwei Haupttechniken untersucht i lokale Aktualisierung von Gewichtungen die den Kompromiss zwischen Kommunikation und Berechnung charakterisieren und ii Gradientenkompression die den Kompromiss zwischen Kommunikation und Prazision charakterisieren 5 Einzelnachweise Bearbeiten Jakub Konecny Brendan McMahan Daniel Ramage Federated Optimization Distributed Optimization Beyond the Datacenter 2015 arxiv 1511 03575 a b c Peter Kairouz H Brendan McMahan Brendan Avent et al Advances and Open Problems in Federated Learning 2019 arxiv 1912 04977 Felix Sattler Klaus Robert Muller Wojciech Samek Clustered Federated Learning Model Agnostic Distributed Multi Task Optimization under Privacy Constraints 2019 arxiv 1910 01991 Manoj Ghuhan Arivazhagan Vinay Aggarwal Aaditya Kumar Singh Sunav Choudhary Federated Learning with Personalization Layers 2019 arxiv 1912 00818 Khademi Nori Milad Yun Sangseok Kim Il Min Fast Federated Learning by Balancing Communication Trade Offs 23 Mai 2021 arxiv 2105 11028 Abgerufen von https de wikipedia org w index php title Foderales Lernen amp oldid 217569771