Zum Inhalt springen

Cohens Kappa

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 9. Januar 2007 um 18:57 Uhr durch Rogmann (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität von Einschätzungen zweier Rater, das Jacob Cohen 1960 vorschlug.

Die Gleichung für Cohens Kappa lautet

wobei der gemessene Übereinstimmungswert der beiden Schätzer und die zufällig erwartete Übereinstimmung ist. Wenn die Rater in allen ihren Urteilen übereinstimmen, ist ; sofern sich nur zufällige Übereinstimmungen zwischen den beiden Ratern feststellen lassen, nimmt es einen Wert von an. Greve und Wentura (1997, S. 111) berichten von verschiedenen Einschätzungen hinsichtlich des -Wertes. Als Resümee lässt sich festhalten, dass -Werte von .40 bis .60 vielleicht noch annehmbar sind, aber Werte unter .70 mit etwas Skepsis betrachtet werden sollten. Interrater-Reliabilitätswerte von >=.75 scheinen gut bis ausgezeichnet.

Nominalskalen

Wenn lediglich Übereinstimmungen und Nicht-Übereinstimmungen zwischen den beiden Ratern abgeprüft werden, fallen alle auftretenden Beurteilungsunterschiede gleich ins Gewicht. Dies ist insbesondere bei Nominalskalen sinnvoll. Dabei kann das Datenmaterial (also die Urteilshäufigkeiten ) bei einem Item oder Merkmal mit (nominalen) Kategorien von beiden Einschätzern in einer Kontingenztafel (also mit Zeilen und Spalten) abgetragen werden:

Vorlage:Highlight1 |   Vorlage:Highlight1 colspan="3" | Rater B Vorlage:Highlight1 style="border-left-style: double;"|Randhäufigkeiten
Vorlage:Highlight1|Rater A Vorlage:Highlight1| Vorlage:Highlight1 style="width:8em; text-align:center;"|... Vorlage:Highlight1| Vorlage:Highlight1 style="border-left-style: double;"|
Vorlage:Highlight1| ...
Vorlage:Highlight1|. . ... . .
Vorlage:Highlight1|. . ... . .
Vorlage:Highlight1|. . ... . .
Vorlage:Highlight1| ...
Vorlage:Highlight1 style="border-top-style: double;"|Randhäufigkeiten ...

Dann gilt für den Anteil der übereinstimmenden Einschätzungen der Rater (=Mitteldiagonale der Kontingenztafel) :

.

Für die erwarteten Übereinstimmungen werden die Produkte der Randsummen (=Zeilensumme x Spaltensumme) einer Kategorie aufsummiert und schließlich ins Verhältnis zum Quadrat der Gesamtsumme gesetzt:

.

Scott (1955) schlug für seinen <Koeffizienten , der nach derselben Ausgangsformel wie berechnet wird, vor, die erwarteten Übereinstimmungen wie folgt zu bestimmen:

.

Sofern die Randverteilungen unterschiedlich sind, ist Scotts immer größer als Cohens .

Mehrfachstufung der Meßobjekte

Sind die Rater aber aufgefordert, die Schätzobjekte mehrfach zu stufen (d.h. statt der k nominalen Kategorien geht es nun um Abstufungen und kann für diese Abstufungen mindestens ein Ordinal-Skalenniveau angenommen werden), sollten aber diskonkordant größere Abweichungen der Rater voneinander stärker ins Gewicht fallen als kleinere Abweichungen. In diesem Fall sollten ein gewichtetes Kappa berechnet werden, bei dem für jede Zelle ij der Kontingenztafel ein Gewichtungsfaktor definiert wird, das sich z.B. daran orientieren könnte, wie groß die Abweichung von der Mitteldiagonalen ist (z.B. als quadrierte Abweichungen Mitteldiagonalzellen=0, Abweichungen um 1 Kategorie=1, Abweichungen um 2 Kategorien==4 usw.). Dann gilt für dieses (gewichtete) Kappa (vgl. Bortz 1999):


Literatur und Quellen

  • Cohen, J. (1960). A coefficient of agreement for nominal scales, Educational and Psychological Measurement, 20, 37-46.
  • Cohen, J. (1968) Weighted kappa: Nominal scale agreement with provision for scaled disagreement or partial credit. Psychological Bulletin, 70, 213-220.
  • Fleiss, J. L. (1981) The measurement of interrater agreement. In: ders., Statistical methods for rates and proportions, 2ed (S. 212-236, Kapitel 13). New York: John Wiley & Sons.
  • Scott, W. A. (1955). Reliability of content analysis: The case nominal scale coding. Public Opinion Quarterly, 19, 321-325.
  • Bortz, J., Lienert, G. A. & Boehnke, K. (1990). Verteilungsfreie Methoden in der Biostatistik, Kap. 9. Berlin: Springer.
  • Bortz, J. (1999). Statistik für Sozialwissenschaftler (5. Aufl.), Berlin: Springer.
  • Greve, W. & Wentura, D. (1997). Wissenschaftliche Beobachtung: Eine Einführung. Weinheim: PVU/Beltz.