www.wikidata.de-de.nina.az
RANSAC englisch random sample consensus deutsch etwa Ubereinstimmung mit einer zufalligen Stichprobe ist ein Resampling Algorithmus zur Schatzung eines Modells innerhalb einer Reihe von Messwerten mit Ausreissern und groben Fehlern Wegen seiner Robustheit gegenuber Ausreissern wird er vor allem bei der Auswertung automatischer Messungen vornehmlich im Fachgebiet Computer Vision eingesetzt Hier unterstutzt RANSAC durch Berechnung einer um Ausreisser bereinigten Datenmenge des sogenannten Consensus Sets Ausgleichsverfahren wie die Methode der kleinsten Quadrate die bei einer grosseren Anzahl von Ausreissern meist versagen RANSAC wurde offiziell 1981 von Martin A Fischler und Robert C Bolles in den Communications of the ACM vorgestellt Eine interne Prasentation am SRI International an dem beide Autoren arbeiteten 1 2 fand bereits im Marz 1980 statt 3 Eine Alternative zu RANSAC sind M Schatzer Diese sind im Vergleich zu anderen Schatzern wie etwa den Maximum Likelihood Schatzern robuster gegenuber Ausreissern RANSAC beruht auf wiederholtem zufalligem Subsampling 4 Inhaltsverzeichnis 1 Einleitung und Prinzip 2 Anwendungen 3 Vorgehensweise und Parameter 3 1 Maximaler Abstand eines Datenpunkts vom Modell 3 2 Anzahl der Iterationen 3 3 Grosse des Consensus Sets 4 Adaptive Bestimmung der Parameter 5 Beispiel 6 Weiterentwicklungen 6 1 LO RANSAC 6 2 MSAC 7 Einzelnachweise 8 LiteraturEinleitung und Prinzip BearbeitenOft liegen als Ergebnis einer Messung Datenpunkte vor die physikalische Werte wie Druck Entfernung oder Temperatur wirtschaftliche Grossen oder ahnliches reprasentieren In diese Punkte soll eine moglichst genau passende parameterabhangige Modellkurve gelegt werden Dabei liegen mehr Datenpunkte vor als zur Ermittlung der Parameter notwendig sind das Modell ist also uberbestimmt Die Messwerte konnen Ausreisser enthalten also Werte die nicht in die erwartete Messreihe passen Da Messungen bis zur Entwicklung der Digitaltechnik meist manuell durchgefuhrt wurden fuhrte die Kontrolle durch den Operateur dazu dass der Anteil von Ausreissern meist gering war Die damals eingesetzten Ausgleichsalgorithmen wie die Methode der kleinsten Quadrate sind gut fur die Auswertung solcher Datensatze mit wenig Ausreissern geeignet Mit ihrer Hilfe wird zuerst mit der Gesamtheit der Datenpunkte das Modell bestimmt und danach versucht die Ausreisser zu detektieren nbsp Der einzelne Ausreisser zieht die Ausgleichsgerade nach obenMit der Entwicklung der Digitaltechnik ab Anfang der 1980er Jahre anderten sich die Grundlagen Durch die neuen Moglichkeiten wurden zunehmend automatische Messverfahren vor allem im Fachgebiet Computer Vision eingesetzt Als Ergebnis liegt hier oft eine grosse Anzahl an Werten vor die meist viele Ausreisser enthalt Die traditionellen Verfahren gehen von einer Normalverteilung der Fehler aus und liefern zum Teil kein sinnvolles Ergebnis wenn die Datenpunkte viele Ausreisser enthalten Dies ist in nebenstehender Darstellung illustriert Es soll eine Gerade das Modell an die Punkte Messwerte angepasst werden Der einzelne Ausreisser unter den 20 Datenpunkten kann einerseits durch traditionelle Verfahren vor Bestimmung der Gerade nicht ausgeschlossen werden Andererseits beeinflusst er aufgrund seiner Lage die Ausgleichsgerade unverhaltnismassig stark sogenannter Hebelpunkt Der RANSAC Algorithmus verfolgt einen neuen iterativen Ansatz Statt alle Messwerte gemeinsam auszugleichen werden lediglich so viele zufallig ausgewahlte Werte benutzt wie notig sind um die Modellparameter zu berechnen im Fall einer Geraden waren das zwei Punkte Dabei wird zunachst angenommen dass die ausgewahlten Werte keine Ausreisser sind Diese Annahme wird uberpruft indem zuerst das Modell aus den zufallig gewahlten Werten berechnet und danach die Distanz aller Messwerte also nicht nur der ursprunglich ausgewahlten zu diesem Modell bestimmt wird Ist die Distanz eines Messwertes zum Modell kleiner als ein vorher festgelegter Schwellenwert dann ist dieser Messwert in Bezug auf das berechnete Modell kein grober Fehler Er unterstutzt es somit Je mehr Messwerte das Modell unterstutzen desto wahrscheinlicher enthielten die zufallig zur Modellberechnung ausgewahlten Werte keine Ausreisser Diese drei Schritte zufallige Auswahl von Messwerten Berechnung der Modellparameter und Bestimmung der Unterstutzung werden mehrmals unabhangig voneinander wiederholt In jeder Iteration wird gespeichert welche Messwerte das jeweilige Modell unterstutzen Diese Menge wird Consensus Set genannt Aus dem grossten Consensus Set das im Idealfall keine Ausreisser mehr enthalt wird abschliessend mit einem der traditionellen Ausgleichsverfahren die Losung ermittelt Anwendungen BearbeitenWie erwahnt treten viele Ausreisser vor allem bei automatischen Messungen auf Diese werden haufig im Fachgebiet Computer Vision durchgefuhrt so dass RANSAC insbesondere hier weit verbreitet ist Im Folgenden werden einige Anwendungen vorgestellt nbsp Gestitchtes Panoramabild von Alcatraz Dazu mussen Einzelbilder passend uberlagert werden um sie danach zu uberblenden Dazu mussen gemeinsame Merkmale in den Teilbildern gefunden werden In der Bildverarbeitung wird RANSAC bei der Bestimmung von homologen Punkten zwischen zwei Kamerabildern eingesetzt Homolog sind die zwei Bildpunkte die ein einzelner Objektpunkt in den beiden Bildern erzeugt Die Zuordnung homologer Punkte wird Korrespondenzproblem genannt Das Resultat einer automatischen Analyse enthalt meist eine grossere Anzahl Fehlzuordnungen Verfahren die auf dem Ergebnis der Korrespondenzanalyse aufsetzen benutzen RANSAC um die Fehlzuordnungen auszuschliessen Ein Beispiel fur diese Vorgehensweise ist die Erstellung eines Panoramabildes aus verschiedenen kleineren Einzelaufnahmen Stitching 5 Ein weiteres ist die Berechnung der Epipolargeometrie Das ist ein Modell aus der Geometrie das die geometrischen Beziehungen zwischen verschiedenen Kamerabildern desselben Objekts darstellt Hier dient RANSAC zur Bestimmung der Fundamentalmatrix die die geometrische Beziehung zwischen den Bildern beschreibt Bei der DARPA Grand Challenge einem Wettbewerb fur autonome Landfahrzeuge wurde RANSAC dazu benutzt die Fahrbahnebene zu bestimmen sowie die Bewegung des Fahrzeuges zu rekonstruieren 6 Der Algorithmus wird auch dazu verwendet um in verrauschten dreidimensionalen Punktmengen geometrische Korper wie Zylinder oder ahnliches anzupassen oder automatisch Punktwolken zu segmentieren Dabei werden alle Punkte die nicht zum selben Segment gehoren als Ausreisser betrachtet Nach einer Schatzung des dominantesten Korpers in der Punktwolke werden alle zu diesem Korper gehorenden Punkte entfernt um im nachsten Schritt weitere Korper bestimmen zu konnen Dieser Vorgang wird solange wiederholt bis alle Korper in der Punktmenge gefunden wurden 7 Vorgehensweise und Parameter BearbeitenVoraussetzung fur RANSAC ist dass mehr Datenpunkte vorliegen als zur Bestimmung der Modellparameter notwendig sind Der Algorithmus besteht aus folgenden Schritten Wahle zufallig so viele Punkte aus den Datenpunkten wie notig sind um die Parameter des Modells zu berechnen Das geschieht in Erwartung dass diese Menge frei von Ausreissern ist Ermittle mit den gewahlten Punkten die Modellparameter Bestimme die Teilmenge der Messwerte deren Abstand zur Modellkurve kleiner als ein bestimmter Grenzwert ist diese Teilmenge wird Consensus Set genannt Enthalt sie eine gewisse Mindestanzahl an Werten wurde vermutlich ein gutes Modell gefunden und der Consensus Set wird gespeichert Wiederhole die Schritte 1 3 mehrmals Nach Durchfuhrung von mehreren Iterationen wird diejenige Teilmenge gewahlt welche die meisten Punkte enthalt so denn eine gefunden wurde Nur mit dieser Teilmenge werden mit einem der ublichen Ausgleichsverfahren die Modellparameter berechnet Eine alternative Variante des Algorithmus beendet die Iterationen vorzeitig wenn im Schritt 3 genugend Punkte das Modell unterstutzen Diese Variante wird als praemptives das heisst vorzeitig abbrechendes RANSAC bezeichnet Bei diesem Vorgehen muss im Vorfeld bekannt sein wie gross der Ausreisseranteil etwa ist damit eingeschatzt werden kann ob genugend Messwerte das Modell unterstutzen Der Algorithmus hangt im Wesentlichen von drei Parametern ab dem maximalen Abstand eines Datenpunktes vom Modell bis zu dem ein Punkt nicht als grober Fehler gilt der Anzahl der Iterationen und der Mindestgrosse des Consensus Sets also der Mindestanzahl der mit dem Modell konsistenten Punkte Maximaler Abstand eines Datenpunkts vom Modell Bearbeiten Dieser Parameter ist grundlegend fur den Erfolg des Algorithmus Im Gegensatz zu den anderen beiden Parametern muss er festgelegt werden eine Uberprufung des Consensus Set braucht nicht durchgefuhrt zu werden und die Anzahl der Iterationen kann nahezu beliebig hoch gewahlt werden Ist der Wert zu gross oder zu klein kann der Algorithmus scheitern Dies ist in den folgenden drei Bildern illustriert Dargestellt ist jeweils ein Iterationsschritt Die beiden zufallig ausgewahlten Punkte mit denen die grune Modellgerade berechnet wurde sind blau eingefarbt Die Fehlerschranken sind als schwarze Linien dargestellt Innerhalb dieser Linien muss ein Punkt liegen um die Modellgerade zu unterstutzen Wird der Abstand zu gross gewahlt werden zu viele Ausreisser nicht erkannt so dass ein falsches Modell die gleiche Anzahl von Ausreissern wie ein richtiges Modell haben kann Bild 1a und 1b Ist er zu gering angesetzt kann es vorkommen dass ein Modell das aus einer ausreisserfreien Menge von Werten berechnet wurde durch zu wenig andere Werte die keine Ausreisser sind unterstutzt wird Bild 2 Probleme bei zu grosser oder zu kleiner Wahl der Fehlerschranke nbsp 1a Richtige Losung zwei Punkte sind Ausreisser nbsp 1b Zweite falsche Losung mit der gleichen Anzahl von Ausreissern wie bei 1a nbsp 2 Fehlerschranke zu klein Trotz dieser Probleme muss dieser Wert meist empirisch festgelegt werden Lediglich wenn die Standardabweichung der Messwerte bekannt ist kann die Fehlergrenze mittels der Gesetze der Wahrscheinlichkeitsverteilung berechnet werden Anzahl der Iterationen Bearbeiten Die Anzahl von Wiederholungen kann so festgelegt werden dass mit einer bestimmten Wahrscheinlichkeit p displaystyle p nbsp mindestens einmal eine ausreisserfreie Teilmenge aus den Datenpunkten ausgewahlt wird Ist s displaystyle s nbsp die Anzahl der Datenpunkte die zur Berechnung eines Modells notwendig sind und ϵ displaystyle epsilon nbsp der relative Anteil an Ausreissern in den Daten so ist die Wahrscheinlichkeit dass bei n displaystyle n nbsp Wiederholungen nicht jedes Mal mindestens ein Ausreisser mit ausgewahlt wird p 1 1 1 ϵ s n displaystyle p 1 left 1 left 1 epsilon right s right n nbsp und damit die Wahrscheinlichkeit dass jedes Mal mindestens ein Ausreisser mit ausgewahlt wird hochstens 1 p displaystyle 1 p nbsp wird muss n displaystyle n nbsp gross genug gewahlt werden Genauer werden mindestens n log 1 p log 1 1 ϵ s displaystyle n frac log left 1 p right log left 1 left 1 epsilon right s right nbsp Wiederholungen benotigt Die Anzahl hangt also nur vom Anteil der Ausreisser der Zahl der Parameter der Modellfunktion und der vorgegebenen Wahrscheinlichkeit der Ziehung mindestens einer ausreisserfreien Teilmenge ab Sie ist unabhangig von der Gesamtzahl der Messwerte In nachstehender Tabelle ist die notwendige Anzahl von Wiederholungen abhangig vom Ausreisseranteil und von der Anzahl der erforderlichen Punkte die zur Bestimmung der Modellparameter erforderlich sind dargestellt Die Wahrscheinlichkeit mindestens eine ausreisserfreie Teilmenge aus allen Datenpunkten auszuwahlen ist dabei mit 99 festgelegt Anzahl der notwendigen Iterationen p 99 displaystyle p 99 nbsp Beispiel Anzahl dererforderlichen Punkte Ausreisseranteil10 20 30 40 50 60 70 Gerade 2 3 5 7 11 17 27 49Ebene 3 4 7 11 19 35 70 169Fundamentalmatrix 8 9 26 78 272 1177 7025 70188Grosse des Consensus Sets Bearbeiten In der allgemeinen Variante des Algorithmus muss dieser Wert nicht zwangslaufig bekannt sein da bei Verzicht auf eine Plausibilitatskontrolle einfach der grosste Consensus Set im weiteren Verlauf benutzt werden kann Seine Kenntnis ist aber fur die vorzeitig abbrechende Variante notwendig Bei dieser wird die Mindestgrosse des Consensus Set meist analytisch oder experimentell bestimmt Eine gute Naherung ist die Gesamtmenge der Messwerte abzuglich des Anteils an Ausreissern ϵ displaystyle epsilon nbsp der in den Daten vermutet wird Fur n displaystyle n nbsp Datenpunkte ist die Mindestgrosse gleich 1 ϵ n displaystyle 1 epsilon cdot n nbsp Beispielsweise ist bei 12 Datenpunkten und 20 Ausreissern die Mindestgrosse naherungsweise 10 Adaptive Bestimmung der Parameter BearbeitenDer Anteil der Ausreisser an der Gesamtmenge der Datenpunkte ist oft unbekannt Somit ist es nicht moglich die benotigte Zahl der Iterationen und die Mindestgrosse eines Consensus Set zu bestimmen In diesem Fall wird der Algorithmus mit der Worst Case Annahme eines Ausreisseranteils von beispielsweise 50 initialisiert und die Zahl der Iterationen und die Grosse des Consensus Set entsprechend berechnet Nach jeder Iteration werden die beiden Werte angepasst wenn eine grossere konsistente Menge gefunden wurde Wird zum Beispiel der Algorithmus mit einem Ausreisseranteil von 50 gestartet und enthalt der berechnete Consensus Set aber 80 aller Datenpunkte ergibt sich ein verbesserter Wert fur den Ausreisseranteil von 20 Die Zahl der Iterationen und die notwendige Grosse des Consensus Set werden dann neu berechnet Beispiel BearbeitenIn eine Menge von Punkten in der Ebene soll eine Gerade angepasst werden Die Punkte sind im ersten Bild dargestellt Im zweiten Bild ist das Ergebnis verschiedener Durchgange eingezeichnet Rote Punkte unterstutzen die Gerade Punkte deren Abstand zur Gerade grosser als die Fehlerschranke ist sind blau eingefarbt Das dritte Bild zeigt die gefundene Losung nach 1000 Iterationsschritten RANSAC zum Anpassen einer Geraden an Datenpunkte nbsp 1 Original Datensatz nbsp 2 Animation mehrerer Iterationen nbsp 3 Ergebnis nach 1000 Iterationen Weiterentwicklungen BearbeitenEs gibt einige Erweiterungen von RANSAC von denen hier zwei wichtige vorgestellt werden LO RANSAC Bearbeiten nbsp Modellgerade wird nicht durch alle fehlerfreien Punkte unterstutzt Es hat sich in Experimenten gezeigt dass meist mehr Iterationsschritte als die theoretisch ausreichende Anzahl notig sind Wird mit einer ausreisserfreien Menge von Punkten ein Modell berechnet so mussen nicht alle anderen Werte die keine Ausreisser sind dieses Modell unterstutzen Das Problem ist in nebenstehender Abbildung illustriert Obwohl die Gerade mittels zweier fehlerfreier Werte berechnet wurde schwarze Punkte werden einige andere offensichtlich richtige Punkte rechts oben im Bild als Ausreisser blaue Sterne klassifiziert Aus diesem Grund wird der ursprungliche Algorithmus bei LO RANSAC local optimised RANSAC im Schritt 3 erweitert Zuerst wird wie ublich die Teilmenge der Punkte bestimmt die keine Ausreisser sind Danach wird mittels dieser Menge und unter Zuhilfenahme eines beliebigen Ausgleichsverfahrens wie der Methode der kleinsten Quadrate das Modell nochmals bestimmt Als letztes wird die Teilmenge berechnet deren Abstand zu diesem optimierten Modell kleiner als die Fehlerschranke ist Erst diese verbesserte Teilmenge wird als Consensus Set gespeichert 8 MSAC Bearbeiten Bei RANSAC wird das Modell ausgewahlt welches durch die meisten Messwerte unterstutzt wird Dies entspricht der Minimierung einer Summe C displaystyle C nbsp bei der alle fehlerfreien Werte mit 0 und alle Ausreisser mit einem konstanten Wert eingehen C i p Fehler mit p 0 wenn Fehler lt Fehlerschranke konstant wenn Fehler Fehlerschranke displaystyle C sum i p text Fehler quad text mit quad p left begin array ll 0 amp text wenn Fehler lt text Fehlerschranke text konstant amp text wenn Fehler geq text Fehlerschranke end array right nbsp Das berechnete Modell kann sehr ungenau sein wenn die Fehlerschranke zu hoch angesetzt wurde je hoher diese ist desto mehr Losungen haben gleiche Werte fur C displaystyle C nbsp Im Extremfall sind alle Fehler der Messwerte kleiner als die Fehlerschranke so dass C displaystyle C nbsp immer 0 ist Damit konnen keine Ausreisser erkannt werden und RANSAC liefert eine schlechte Schatzung MSAC M Estimator SAmple Consensus ist eine Erweiterung von RANSAC die eine modifizierte zu minimierende Zielfunktion benutzt C i p Fehler mit p Fehler wenn Fehler lt Fehlerschranke konstanter Wert groesser als Fehlerschranke wenn Fehler Fehlerschranke displaystyle C sum i p text Fehler quad text mit quad p left begin array ll text Fehler amp text wenn Fehler lt text Fehlerschranke text konstanter Wert groesser als Fehlerschranke amp text wenn Fehler geq text Fehlerschranke end array right nbsp Mit dieser Funktion erhalten Ausreisser weiterhin eine bestimmte Strafe die grosser als die Fehlerschranke ist Werte unterhalb der Fehlerschranke gehen direkt mit dem Fehler anstelle von 0 in die Summe ein Dadurch wird das angesprochene Problem beseitigt da ein Punkt umso weniger zur Summe beitragt je besser er zum Modell passt 9 Einzelnachweise Bearbeiten Robert C Bolles Homepage beim SRI online abgerufen am 11 Marz 2008 Martin A Fischler Homepage beim SRI online abgerufen am 11 Marz 2008 Martin A Fischler und Robert C Bolles Random Sample Consensus A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography Marz 1980 online PDF 301 kB abgerufen am 13 September 2007 Cantzler H Random sample consensus ransac Institute for Perception Action and Behaviour Division of Informatics University of Edinburgh 1981 http citeseerx ist psu edu viewdoc download doi 10 1 1 106 3035 amp rep rep1 amp type pdf Dag Ewering Modellbasiertes Tracking mittels Linien und Punktkorrelationen September 2006 online PDF 9 5 MB abgerufen am 2 August 2007 Martin A Fischler und Robert C Bolles RANSAC An Historical Perspective 6 Juni 2006 online PPT 2 8 MB abgerufen am 11 Marz 2008 Christian Beder und Wolfgang Forstner Direkte Bestimmung von Zylindern aus 3D Punkten ohne Nutzung von Oberflachennormalen 2006 uni bonn de PDF abgerufen am 25 August 2016 Ondrej Chum Jiri Matas and Stepan Obdrzalek Enhancing RANSAC By Generalized Model Optimization 2004 online PDF abgerufen am 7 August 2007 P H S Torr und A Zisserman MLESAC A new robust estimator with application to estimating image geometry 1996 online PDF 855 kB abgerufen am 7 August 2007 Literatur BearbeitenMartin A Fischler und Robert C Bolles Random Sample Consensus A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography PDF 1 2 MB Nicht mehr online verfugbar 1981 archiviert vom Original am 5 April 2019 abgerufen am 14 Oktober 2019 Verschiedene Autoren 25 Years of RANSAC Workshop in conjunction with CVPR 2006 2006 abgerufen am 11 Marz 2008 Peter Kovesi RANSAC Robustly fits a model to data with the RANSAC algorithm Matlab Implementation 2007 abgerufen am 11 Marz 2008 Volker Rodehorst Photogrammetrische 3D Rekonstruktion im Nahbereich durch Auto Kalibrierung mit projektiver Geometrie wvb Wissenschaftlicher Verlag Berlin 2004 ISBN 978 3 936846 83 6 Hochschulschrift zugl Dissertation TU Berlin 2004 Richard Hartley Andrew Zisserman Multiple View Geometry in Computer Vision 2 Auflage Cambridge University Press Cambridge UK 2004 ISBN 978 0 521 54051 3 englisch Tilo Strutz Data Fitting and Uncertainty A practical introduction to weighted least squares and beyond 2nd edition Auflage Springer Vieweg 2016 ISBN 978 3 658 11455 8 englisch nbsp Dieser Artikel wurde am 3 April 2008 in dieser Version in die Liste der exzellenten Artikel aufgenommen Abgerufen von https de wikipedia org w index php title RANSAC Algorithmus amp oldid 216395969