www.wikidata.de-de.nina.az
Die Interrater Reliabilitat oder Urteilerubereinstimmung bezeichnet in der empirischen Sozialforschung u a Psychologie Soziologie Epidemiologie etc das Ausmass der Ubereinstimmungen Konkordanzen der Einschatzungsergebnisse bei unterschiedlichen Beobachtern Ratern Hierdurch kann angegeben werden inwieweit die Ergebnisse vom Beobachter unabhangig sind weshalb es sich genau genommen um ein Mass der Objektivitat handelt Die Reliabilitat ist ein Mass fur die Gute der Methode die zur Messung einer bestimmten Variablen eingesetzt werden Dabei kann zwischen Interrater und Intrarater Reliabilitat unterschieden werden Inhaltsverzeichnis 1 Interrater Reliabilitat 2 Intrarater Reliabilitat 3 Kappa Statistiken 4 Inter Rater Korrelation 5 Intraklassen Korrelation 6 Literatur 7 Weblinks 8 EinzelnachweiseInterrater Reliabilitat BearbeitenAn einem bestimmten Objekt wird durch zwei unterschiedliche Messpersonalen dieselbe Messung vorgenommen Die Ergebnisse sollten gleich sein Ein Beispiel Ein Paar von Personen Person A und B fuhrten ein Gesprach Zwei Urteiler Rater 1 und 2 beobachteten die zwei Personen und schatzten die Rededauer der Person A und Person B ein Die Einschatzungen zeigten sich in einer Ratingskala Extrem kurz 3 sehr kurz 2 kurz 1 mittelmassig 0 lang 1 sehr lang 2 extrem lang 3 Rater 1 schatzte die Rededauer von Person A mit 3 und von Person B mit 3 ein Rater 2 gab 2 fur die Rededauer von Person A und 2 von Person B 1 Person A Person BRater 1 3 3Rater 2 2 2In diesem Fall kann man sagen dass die Interrater Reliabilitat nicht schlecht ist Unter diesem Prinzip konnen ahnliche Uberprufungen mit noch mehr Ratern und Messobjekten vollgezogen werden Intrarater Reliabilitat BearbeitenAn einem bestimmten Objekt wird durch ein Messinstrument zweimal dieselbe Messung vorgenommen Die Ergebnisse sollten gleich sein Beispiel Ein Proband wird von einem Interviewer zweimal zu unterschiedlichen Zeitpunkten zum selben Thema befragt Kappa Statistiken BearbeitenEs gibt eine Reihe statistischer Verfahren die zur Bestimmung der Interrater Reliabilitat eingesetzt werden konnen Handelt es sich um zwei oder mehr unterschiedliche Beobachter die gleichzeitig mehrere Beobachtungsobjekte Falle Probanden kategorial einschatzen so lasst sich die Interrater Reliabilitat mittels Cohens Kappa fur zwei Rater bzw Fleiss Kappa fur mehr als zwei Rater abschatzen Die Kappa Statistiken prufen das Ausmass an Konkordanz durch Einbezug und Vergleich zu dem durch zufalliges Einschatzen typischerweise erreichbaren Ausmass an Ubereinstimmung Dabei wird davon ausgegangen dass die einzelnen Einschatzungen eines Raters vollkommen unabhangig voneinander getroffen werden Kappa kann Werte zwischen 1 0 bei hoher Konkordanz und lt 0 displaystyle lt 0 nbsp bei niedriger Konkordanz annehmen Sie sind insbesondere fur Variablen auf Nominalskalenniveau geeignet Die Nutzung von Kappa Statistiken wird auch kritisiert da die Werte dieser Statistik durch ihre mathematische Unzulanglichkeit zumeist keine Aussage erlauben 2 stattdessen wird Krippendorffs Alpha empfohlen Inter Rater Korrelation BearbeitenFur hohere Skalenniveaus nutzen andere Verfahren den Pearsonscher Masskorrelationskoeffizienten bzw Rangkorrelationskoeffizienten nach Spearman und Kendall zur Bestimmung der Inter Rater Korrelation zwischen zwei Ratern wobei jeweils miteinander gepaarte Urteilswerte in Beziehung miteinander gesetzt werden Der Inter Rater Korrelationskoeffizient beschreibt dabei allerdings lediglich einen irgendwie gearteten Zusammenhang der beiden Messungen ohne dass Abweichungen zwischen den Urteilern eine Rolle spielen So spielen z B gleichbleibende Milde oder Strenge Tendenzen keine Rolle Beispiel Rater 1 schatzt 4 Objekte auf einer Skala wie folgt ein 1 2 1 3 displaystyle 1 2 1 3 nbsp Rater 2 urteilt auf derselben Skala fur gleichen Objekte 2 3 2 4 displaystyle 2 3 2 4 nbsp Die Inter Rater Korrelation betragt r 1 und ist vollkommen obwohl die Urteiler nicht ubereinstimmen Eine Alternative fur ordinalskalierte Daten ist hier der Kendall sche Konkordanzkoeffizient W bei dem es um die Berechnung des Ausmasses der Ubereinstimmung bei zwei oder mehr Beurteilern geht Intraklassen Korrelation BearbeitenFur intervallskalierte Daten beschreibt der Intraklassen Korrelationskoeffizient ICC Shrout amp Fleiss 1979 McGraw amp Wong 1996 dass die beiden Messwerte den gleichen Wert haben sollen Er setzt intervallskalierte Daten voraus und wird in der Regel berechnet wenn mehr als zwei Beobachter vorhanden sind oder und zwei oder mehr Beobachtungszeitpunkte einbezogen werden sollen Literatur BearbeitenJ Cohen A coefficient for agreement for nominal scales In Education and Psychological Measurement 20 1960 S 37 46 doi 10 1177 001316446002000104 J L Fleiss Measuring nominal scale agreement among many raters In Psychological Bulletin 76 5 1971 S 378 382 doi 10 1037 h0031619 K O McGraw S P Wong Forming inferences about some intraclass correlation coefficients In Psychological Methods 1 1996 S 30 46 doi 10 1037 1082 989X 1 1 30 P Shrout J L Fleiss Intraclass correlation Uses in assessing rater reliability In Psychological Bulletin 86 1979 S 420 428 doi 10 1037 0033 2909 86 2 420 M Wirtz F Caspar Beurteilerubereinstimmung und Beurteilerreliabilitat Hogrefe Gottingen u a 2002 ISBN 3 8017 1646 5 Weblinks BearbeitenStatistical Methods for Rater Agreement by John Ubersax englisch Ausfuhrlicher Artikel zu Methoden der Inter und Intrarater Reliabilitat im medizinischen Umfeld Excel Arbeitsblatt mit mehreren berechenbaren Koeffizienten Memento vom 21 Juni 2012 im Internet Archive Einzelnachweise Bearbeiten Markus Wirtz Beurteilerubereinstimmung und Beurteilerreliabilitat Methoden zur Bestimmung und Verbesserung der Zuverlassigkeit von Einschatzungen mittels Kategoriensystemen und Ratingskalen Hogrefe Gottingen 2002 ISBN 3 8017 1646 5 K Krippendorff Reliability in Content Analysis Some Common Misconceptions and Recommendations In Human Communication Research 30 3 2004 S 411 433 doi 10 1111 j 1468 2958 2004 tb00738 x Abgerufen von https de wikipedia org w index php title Interrater Reliabilitat amp oldid 239207744