www.wikidata.de-de.nina.az
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen beispielsweise Einzelnachweisen ausgestattet Angaben ohne ausreichenden Beleg konnten demnachst entfernt werden Bitte hilf Wikipedia indem du die Angaben recherchierst und gute Belege einfugst Als Sensordatenfusion wird allgemein die Verknupfung der Ausgabedaten mehrerer Sensoren bezeichnet Ziel ist fast immer die Gewinnung von Informationen besserer Qualitat Die Bedeutung von bessere Qualitat hangt dabei immer von der Applikation ab So konnen beispielsweise die Daten zweier Radaranlagen zur Erfassung eines grosseren Detektionsbereiches zusammengefasst fusioniert werden Eine andere Anwendung der Sensordatenfusion besteht beispielsweise in der Fusion von Kamera und Radardaten um Objekte zu klassifizieren und die Detektionsleistung des Sensorsystems zu erhohen Sensordatenfusion im UberblickDie Informationsfusion umfasst auch Methoden andere Informationsquellen als Sensoren zu verknupfen mit dem Ziel neues und praziseres Wissen uber Messwerte und Ereignisse zu gewinnen Die Multi Sensor Datenfusion engl multi sensor data fusion kurz oft auch nur Data Fusion genannt bezeichnet die Zusammenfuhrung und Aufbereitung von bruchstuckhaften und teilweise widerspruchlichen Sensordaten in ein homogenes fur den Menschen verstandliches Gesamtbild der aktuellen Situation Inhaltsverzeichnis 1 Geschichte 2 Ziele und Potentiale der Sensordatenfusion 3 Methoden 3 1 Klassische Statistik 3 2 Bayessche Statistik 3 3 Dempster Shafer Evidenztheorie 3 4 Fuzzy Logik 3 5 Neuronale Netze 4 Nachteile und Probleme der Sensordatenfusion 5 Unterscheidungskriterien 5 1 Funktionalitat 5 2 Ebenen der Sensordatenfusion 5 3 Fusionsarchitektur 5 4 Weitere Unterscheidungskriterien 6 Werkzeuge 7 Multi Sensor Datenfusion 8 Anwendungsbeispiele 9 Literatur Allgemein 10 Literatur zu Luftfahrtanwendungen 11 Siehe auch 12 Weblinks 13 EinzelnachweiseGeschichte BearbeitenDie theoretischen Ursprunge gehen auf das Ende der sechziger Jahre zuruck Allerdings wurden diese mathematischen Prinzipien erst spater auf die Technik ubertragen zunachst im Bereich der Kunstlichen Intelligenz KI In dieser Disziplin wurde oftmals die Biologie insbesondere das menschliche Gehirn als Vorbild zur Modellierung technischer Systeme herangezogen Berucksichtigt man die Leistungsfahigkeit des Gehirns bei der Fusion von Daten aus den unterschiedlichen Sinnesorganen so ist es nicht verwunderlich dass die ersten Ansatze gerade aus der KI stammen Ziele und Potentiale der Sensordatenfusion BearbeitenBei der Auswahl von Sensoren fur eine Anwendung stehen neben den Kosten vor allem Vollstandigkeit Widerspruchsfreiheit Genauigkeit und Sicherheit der erfassten Daten im Vordergrund Die Nutzung mehrerer Sensoren inklusive einer geschickten Verknupfung der Ausgabedaten macht das Erreichen dieser Ziele zumindest potentiell wahrscheinlicher als die Verwendung nur eines Sensors Die Zuverlassigkeit des Gesamtsystems wird durch die Verwendung mehrerer Sensoren in der Regel erhoht Es ist zum einen leichter den Ausfall eines Sensors zu erkennen und zum anderen wird die Kompensation des Ausfalls moglich Ein ausgefallener Sensor bedeutet also noch nicht zwangsweise den kompletten Ausfall des Gesamtsystems Bei Verwendung mehrerer Sensoren vor allem wenn sie nach unterschiedlichen Messprinzipien arbeiten erhoht sich auch die Detektionswahrscheinlichkeit Das heisst Phanomene werden vom Gesamtsystem auch dann erkannt wenn einzelne Sensoren aufgrund von Umweltbedingungen in ihrer Wahrnehmung eingeschrankt oder blind sind Ein wichtiges Ziel bei der Verknupfung von Daten mehrerer Sensoren ist die Erhohung der Genauigkeit Voraussetzung ist dass die Messfehler der Sensoren nicht korreliert sind gewissen Wahrscheinlichkeitsdichtefunktionen genugen mussen z B Normalverteilung oder vom System anders identifizierbar und quantisierbar sein mussen Haufig werden hier Kalman Filter verwendet und die erreichte finale Genauigkeit kann nach den Regeln der Fehlerfortpflanzung ermittelt werden Die Sichtbereiche von Sensoren sind ublicherweise beschrankt die Verwendung mehrerer Sensoren vergrossert den Sichtbereich des Gesamtsystems entsprechend Die Auflosung von Mehrdeutigkeiten ist bei der Verwendung mehrerer Sensoren einfacher Zusatzliche Sensoren liefern oft zusatzliche Informationen und erweitern so das Wissen des Gesamtsystems Mehrere Sensoren die dasselbe Phanomen im selben Sichtbereich erfassen erhohen effektiv die Messrate Sensordatenfusion kann auch zur Kostenreduktion verwendet werden In diesem Fall ersetzen mehrere in Summe gunstigere Sensoren einen besonders teuren Sensor Methoden BearbeitenIn den letzten Jahren haben sich einige systematische Fusionsansatze herauskristallisiert von denen an dieser Stelle die wichtigsten kurz erortert werden sollen Dafur sei zunachst das Fusionsproblem als Parameterschatzmodell formuliert Von einer Quelle wird ein Parameter r displaystyle r nbsp emittiert der eine Realisierung der Zufallsgrosse R displaystyle R nbsp darstellt Bei der Zielgrosse r displaystyle r nbsp kann es sich um eine Messgrosse handeln aber auch um latente Konstrukte die keinen Anspruch auf physikalische Realitat haben mussen Im letzteren Fall kann die Grosse r displaystyle r nbsp im platonischen Sinne als eine Idealisierung der Sensordaten d i displaystyle d i nbsp verstanden werden bei der gewunschte oder bekannte Eigenschaften der Zielgrosse selbst berucksichtigt werden Mit Hilfe mehrerer Sensoren werden die Daten D d i i 0 B 1 displaystyle D d i i 0 dots B 1 nbsp erfasst welche ebenfalls als Realisierungen eines Zufallsprozesses D displaystyle D nbsp aufzufassen sind Die Messung entspricht einer Abbildung R D displaystyle R mapsto D nbsp die sich mathematisch mittels der bedingten Wahrscheinlichkeitsverteilung WV von D R displaystyle D R nbsp beschreiben lasst Im Folgenden sei angenommen dass es sich bei r displaystyle r nbsp und d displaystyle d nbsp um kontinuierliche Grossen handelt die WV anhand einer Wahrscheinlichkeitsdichtefunktion beschrieben wird Klassische Statistik Bearbeiten Der klassischen Statistik liegt eine empirische frequentistische Interpretation von Wahrscheinlichkeiten zugrunde bei der zwar die Sensordaten als Zufallsgrossen angesehen werden nicht jedoch die Messgrosse r displaystyle r nbsp selbst Die Schatzung von r displaystyle r nbsp anhand der Sensordaten d i displaystyle d i nbsp stutzt sich auf die sogenannte Wahrscheinlichkeitsdichtefunktion p D R D r displaystyle p D R D r nbsp die dafur als Funktion von r displaystyle r nbsp aufgefasst und maximiert wird r M L arg max r p D R D r displaystyle hat r ML arg max r p D R D r nbsp Der zugehorige Wert r M L displaystyle hat r ML nbsp heisst Maximum Likelihood oder ML Schatzwert Bayessche Statistik Bearbeiten In der Bayesschen Statistik wird auch die Messgrosse r displaystyle r nbsp als Realisierung einer Zufallsgrosse R displaystyle R nbsp aufgefasst weshalb die a priori Wahrscheinlichkeitsdichtefunktion p R r displaystyle p R r nbsp zur Bestimmung der a posteriori Wahrscheinlichkeitsdichtefunktion p R D r D displaystyle p R D r D nbsp herangezogen wird p R D r D p D R D r p R r p D d displaystyle p R D r D frac p D R D r p R r p D d nbsp Durch Maximierung dieser Gleichung erhalt man die Maximum a posteriori MAP Losung fur den zu schatzenden Parameter r displaystyle r nbsp r M A P arg max r p R D r D displaystyle hat r MAP arg max r p R D r D nbsp Diese Vorgehensweise hat den wesentlichen Vorteil dass sie die Angabe der WV fur den zu schatzenden Parameter r displaystyle r nbsp bei gegebenen Messdaten D displaystyle D nbsp zulasst wohingegen die Klassische Vorgehensweise lediglich die Angabe der WV fur die Sensordaten D displaystyle D nbsp bei gegebenem Parameterwert r displaystyle r nbsp erlaubt Dempster Shafer Evidenztheorie Bearbeiten Die Evidenztheorie wird oftmals als eine Erweiterung der Wahrscheinlichkeitstheorie oder als eine Verallgemeinerung der Bayesschen Statistik betrachtet Sie basiert auf zwei nichtadditiven Massen dem Grad des Dafurhaltens englisch degree of belief und der Plausibilitat und bietet die Moglichkeit Ungewissheit detaillierter auszudrucken In praktischen Aufgabenstellungen ist es jedoch nicht immer moglich das verfugbare Wissen uber die relevanten Grossen derart differenziert darzustellen und somit die theoretischen Moglichkeiten dieses Ansatzes voll auszuschopfen Fuzzy Logik Bearbeiten Die Fuzzy Logik basiert auf der Verallgemeinerung des Mengenbegriffes mit dem Ziel eine unscharfe Wissensreprasentation zu erlangen Dies erfolgt anhand einer sogenannten Zugehorigkeitsfunktion die jedem Element einen Grad der Zugehorigkeit zu einer Menge zuordnet Aufgrund der Willkur bei der Wahl dieser Funktion stellt die Fuzzy Mengentheorie eine sehr subjektive Methode dar die sich daher besonders zur Reprasentation von menschlichem Wissen eignet In der Informationsfusion werden Fuzzy Methoden eingesetzt um Ungewissheit und Vagheit im Zusammenhang mit den Sensordaten zu handhaben Neuronale Netze Bearbeiten Eine weitere Methode zur Fusion von Information sind die kunstlichen Neuronalen Netze KNN Diese konnen auf durch Software simulierten Verarbeitungseinheiten basieren die zu einem Netzwerk verschaltet werden oder in Hardware realisiert sein um bestimmte Aufgaben zu losen Ihr Einsatz ist besonders vorteilhaft wenn es schwer oder nicht moglich ist einen Algorithmus zur Kombination der Sensordaten zu spezifizieren In solchen Fallen wird dem neuronalen Netz in einer Trainingsphase mit Hilfe von Testdaten das gewunschte Verhalten beigebracht Nachteilig an neuronalen Netzen sind die mangelnden Moglichkeiten zur Einbindung von a priori Wissen uber die an der Fusion beteiligten Grossen Nachteile und Probleme der Sensordatenfusion BearbeitenNeben den genannten Vorteilen existieren aber auch Probleme die die Verwendung mehrerer Sensoren und Verknupfung ihrer Ausgabedaten mit sich bringen konnen Hohere Datenraten belasten die Kommunikationssysteme Die Komplexitat der Kommunikation steigt an ebenso wie der Zeitbedarf fur die Ubertragung und die Verarbeitung Die Komplexitat des Gesamtsystems steigt an Dies erhoht die Wahrscheinlichkeit von Fehlern bei Spezifikation und Implementierung des Systems Die Integration der Sensoren zum Beispiel in ein Fahrzeug wird mit steigender Anzahl immer schwieriger Dies liegt am Platzbedarf an der begrenzten Anzahl der fur die Messung gunstigen Einbauorte und der notwendigen Kommunikations und Versorgungseinrichtungen Falls nicht mehrere gunstige Sensoren einen teuren Sensor ersetzen sollen steigen die Kosten Da die Messungen der einzelnen Sensoren typischerweise zu unterschiedlichen Zeitpunkten stattfindet und auch die Abtastzeit oft unterschiedlich ist ergibt sich die Notwendigkeit der Synchronisation der Daten Dies fuhrt zu zusatzlichen Aufwanden in Software und Hardware zum Beispiel Echtzeit fahige Bussysteme Unterscheidungskriterien BearbeitenAnsatze zur Sensordatenfusion lassen sich nach unterschiedlichen Kriterien unterscheiden Funktionalitat Bearbeiten Brooks und Iyengar 1997 unterscheiden vier Arten der Sensordatenfusion hinsichtlich ihrer Funktion Eine komplementare Fusion hat das Ziel die Vollstandigkeit der Daten zu erhohen Unabhangige Sensoren betrachten hierfur unterschiedliche Sichtbereiche und Phanomene oder messen zu unterschiedlichen Zeiten Bei der konkurrierenden Fusion erfassen Sensoren gleichzeitig denselben Sichtbereich und liefern Daten gleicher Art Die oft gewichtete Verknupfung solcher konkurrierender Daten kann die Genauigkeit des Gesamtsystems erhohen Reale Sensoren erbringen die gewunschten Informationen oft nicht allein So ergibt sich beispielsweise die benotigte Information erst aus dem Zusammensetzen der verschiedenen Ausgabedaten Eine solche Fusion wird als kooperative Fusion bezeichnet Ein Spezialfall ist die unabhangige Fusion Streng genommen liegt keine echte Sensordatenfusion vor weil hier Daten unterschiedlicher Sensoren nicht verknupft aber in einem gemeinsamen System verarbeitet werden In realen Systemen kommen typischerweise Mischformen bzw die Kombination verschiedener Fusionstypen zum Einsatz manchmal auch als hybride Fusion bezeichnet Ebenen der Sensordatenfusion Bearbeiten Hall amp Llinas 1997 unterscheiden drei Ebenen der Sensordatenfusion Bei der data fusion werden die rohen Sensordaten vor weiteren Signalverarbeitungsschritten miteinander verschmolzen Beispiel Gerauschunterdruckung mit Hilfe von Beamforming Bei der feature fusion erfolgt vor der Verschmelzung eine Extraktion eindeutiger Merkmale Die neu kombinierten Merkmalsvektoren werden im Anschluss weiterverarbeitet Beispiel Audiovisuelle Spracherkennung Hierbei werden akustische und visuelle Merkmalsvektoren kombiniert um durch die Kombination von Sprachlauten und Lippenbewegungen auch in lauten Umgebungen oder bei gestorten Kanalen akzeptable Erkennraten zu erzielen Bei der decision fusion erfolgt die Zusammenfuhrung erst nachdem alle Signalverarbeitungs und Mustererkennungsschritte durchgefuhrt wurden Fusionsarchitektur Bearbeiten Nach Klein 1999 lassen sich Fusionsansatze nach folgenden Architekturtypen unterscheiden Bei der Sensor Level Fusion verarbeiten dem eigentlichen Fusionsmodul vorgeschaltete Module die Sensordaten und leiten sie dann an das Fusionsmodul weiter Ein Beispiel fur eine solche Vorverarbeitung ist die Merkmalsextraktion Die Menge an zu fusionierenden Daten ist in einer solchen Architektur durch die Vorverarbeitungsschritte in der Regel reduziert Die Fusion von Daten geschieht dann entweder auf der Ebene feature fusion oder decision fusion Dienen dem Fusionsmodul nur minimal vorverarbeitete Sensordaten als Eingangsdaten so spricht man von einer Central Level Fusion Weitergehende Signalverarbeitungsschritte erfolgen erst nach der Fusion sodass die Ebene der Fusion typischerweise data fusion ist Die Menge an zu fusionierenden Daten ist hier kaum gegenuber der Menge der Sensordaten reduziert Bei Mischformen kommen Elemente von Central Level Fusion und Sensor Level Fusion zum Einsatz Es werden also parallel sowohl vorverarbeitete Daten als auch Daten direkt vom Sensor fusioniert Oft kommt hier die Bezeichnung Hybrid Fusion zum Einsatz was Verwechslungen mit der Unterscheidung nach Funktionalitat moglich macht Weitere Unterscheidungskriterien Bearbeiten Die Literatur beschreibt noch weitere Arten von Fusionstypen hier nur kurz aufgefuhrt Sensornetzwerke sowohl statisch als auch dynamisch Homogene und heterogene Anordnungen also die Verwendung von Sensoren gleichen oder unterschiedlichen Typs AlgorithmenfusionenWerkzeuge BearbeitenDie Verknupfung der Sensordaten findet meist innerhalb von Rechnern oder Steuergeraten statt Es gibt sehr viele Algorithmen bzw mathematische Verfahren um Sensordaten aus verschiedenen Quellen miteinander zu fusionieren Einige Beispiele sind Klassifikationsverfahren stochastische Verfahren Kalman Filter logische Verknupfungen auf Regeln basierende VerfahrenMulti Sensor Datenfusion BearbeitenDas im Lauf der Daten Fusion entstehende sog Lagebild stellt dann die Basis fur einen weitergehenden fundierten Entscheidungsprozess dar Das originare Einsatzgebiet von Multi Sensor Data Fusion Systemen liegt im Bereich militarischer Fuhrungssysteme C3I jedoch halten die dort entwickelten Systemkonzepte in zunehmendem Mass auch Einzug in die unternehmensweite Controlling Systeme Anstatt des Begriffes Multi Sensor Datenfusion findet man in der englischsprachigen Fachliteratur auch die abgekurzten Begriffe Sensor Fusion Data Fusion und Information Fusion als Uberbegriff der explizit auch andere Datenquellen als Sensoren einbezieht Im Gegensatz zu dem im Kontext Data Warehouse auftretenden engeren Datenfusionsbegriff der sich mit der rein informationstechnischen Zusammenfuhrung von zwar luckenhaften aber doch gleich ahnlich strukturierten Daten beschaftigt ist der Multi Sensor Datenfusionsansatz in folgenden Aspekten wesentlich weitreichender a Nicht kommensurable Datenquellen Ein umfassender Lageuberblick erfordert oft die Integration von Sensoren und Datenquellen die nicht nur hinsichtlich ihrer Datenstruktur sondern auch hinsichtlich ihres Inhalts hochst unterschiedlich sind Eine Reihe von Verarbeitungsschritten ist dabei notwendig um die Daten auf ein semantisches Niveau zu heben auf dem sie tatsachlich kombinierbar sind So mussen beispielsweise Radardaten erst zu Flugspuren Tracks aufbereitet und mit Informationen zur Identifikation kombiniert werden bevor sie tatsachlich mit statischen Quellen wie etwa einem in einer Datenbank gespeicherten Flugplan verglichen werden konnen b Information Aging Die Frequenz der eingehenden Daten ist in der Regel unterschiedlich das heisst dass ein Multi Sensor Datenfusionssystem in der Lage sein muss Informationen zu verarbeiten die unterschiedlich alt sind Das Alter der Daten spielt dabei nicht nur eine Rolle hinsichtlich der Frage ob und wie relevant sie fur die aktuelle Situation sind Vielmehr mussen alte Daten oft in die Gegenwart extrapoliert werden um zu entscheiden ob die aktuellen Beobachtungen widerspruchlich zu alten Daten sind oder ob eine Entwicklung erkennbar ist So muss beispielsweise entschieden werden ob es sich bei von zwei Radarstationen im Abstand von 10 bis 15 sec an unterschiedlichen Positionen entdeckten Objekten um dasselbe Flugzeug handelt das nur zum Zeitpunkt der zweiten Beobachtung bereits an einer anderen Position ist oder ob von zwei unterschiedlichen Flugzeugen auszugehen ist c Informationsgewichtung Je nach der Auslegung der Sensorik und dessen lokaler Position konnen Informationen des jeweiligen Sensors mit unterschiedlicher Gewichtung ins Lagebild eingehen So ist z B davon auszugehen dass bei entsprechender Ausstattung die Bordsensoren eines Abfangjagers ein verlasslicheres Bild von der Nahsituation liefern als Radarsysteme aus einer weiteren Distanz Bei der Informationsgewichtung mussen deshalb unterschiedlichste Faktoren wie Systemausstattung Messbereiche Scan Frequenzen aktuelle Positionen etc verteilter Sensorsysteme einbezogen werden Auf hoherem Niveau geschieht diese Gewichtung auch bei der Harmonisierung von bereits fusionierten Daten die mit anderen Fuhrungssystem ausgetauscht werden d Informations Interpretation Ein nach dem Prinzip Die Gesamtheit ist mehr als die Summe der Einzelteile aufgestelltes Lagebild erfordert die teilweise Interpretation von eingehenden Informationen Einerseits muss dabei in Betracht gezogen werden mit welcher qualitativen Gute die eingesetzte Sensorik in der Lage ist Informationen zu liefern manche Radarsysteme schatzen etwa die Geschwindigkeit eines Objektes andere konnen diese messen hochauflosende Laser Entfernungsmesser werden akkuratere Informationen liefern als Radars Andererseits muss berucksichtigt werden in welchem Masse eine Verschiebung der Informations Gewichtung das Lagebild verandert und welche potentielle Gefahr eine fehlerhafte Gewichtung verursachen konnte Anwendungsbeispiele BearbeitenInzwischen ist der Einsatz sehr breit und umfasst viele unterschiedliche Disziplinen darunter Robotik Mustererkennung Medizin zerstorungsfreie Prufung Geowissenschaften Verteidigung und Finanzen Obwohl die Literatur dazu sehr umfangreich ist sind viele der darin angegebenen Verfahren jedoch wenig systematisch Ein weiteres Anwendungsgebiet sind Fahrerassistenzsysteme Daten von Kameras werden hier zum Beispiel mit den Positionsangaben der Radarsensoren validiert um Objekte Hindernisse sicher erkennen zu konnen In manchen Systemen erweitert man den Sichtbereich des Fernbereichs Radars mit Radaren fur den Nahbereich um einen grosseren Sichtbereich zu erhalten und zusatzliche Funktionen anbieten zu konnen Die Odometrie des europaischen Zugbeeinflussungssystems ETCS nutzt Sensordatenfusion um die spezifischen Schwachen einzelner Sensortypen zur sicheren Wegmessung auszugleichen Im Bereich der Stadtentwicklung und Smart City Vorhaben werden auch die durch Online Werkzeuge beteiligte Bevolkerung als Sensor begriffen deren Informationen z B erganzend zu klassischer Verkehrsuberwachung berucksichtigt werden konnen 1 Literatur Allgemein BearbeitenD L Hall J Llinas An introduction to multisensor data fusion In Proceedings of IEEE Band 85 1997 OCLC 926654310 S 6 23 Richard R Brooks Sundararaja S Iyengar Multi Sensor Fusion Fundamentals and Applications with Software Prentice Hall PTR 1997 ISBN 0 13 901653 8 Lawrence A Klein Sensor Data Fusion Artech House 1999 ISBN 0 8194 3231 8 Yaakov Bar Shalom Hrsg Multitarget multisensor tracking applications and advances Band I Artech House 1989 ISBN 0 89006 377 X Literatur zu Luftfahrtanwendungen BearbeitenJ Wendel Integrierte Navigationssysteme Sensordatenfusion GPS und Inertiale Navigation Munchen 2007 ISBN 978 3 486 58160 7 S Winkler Zur Sensordatenfusion fur integrierte Navigationssysteme unbemannter Kleinstflugzeuge Shaker Verlag Aachen 2007 ISBN 978 3 8322 6060 6 Siehe auch BearbeitenKalman Filter Tracking Spurverfolgung Grid of Evidence Bayes Klassifikator Mustererkennung Wahrscheinlichkeitsdichte SignalverarbeitungWeblinks Bearbeitenhttp www elsevier com locate inffus Information Fusion Journal http www informationsfusion de Sensor und Informationsfusion Karlsruher Institut fur Technologie KIT http www mrt kit edu res3 php Informationsfusion Karlsruher Institut fur Technologie KIT http www isif org International Society of Information FusionEinzelnachweise Bearbeiten David Fonseca Monica Sanchez Sepulveda Silvia Necchi Enric Pena Towards Smart City Governance Case Study Improving the Interpretation of Quantitative Traffic Measurement Data through Citizen Participation In Sensors Band 21 Nr 16 6 August 2021 ISSN 1424 8220 S 5321 doi 10 3390 s21165321 PMID 34450772 PMC 8400410 freier Volltext Abgerufen von https de wikipedia org w index php title Sensordatenfusion amp oldid 234654690