Messunsicherheit
Die Messunsicherheit eines Messresultats definiert die Grenzen eines Wertebereiches, innerhalb dessen der wahre Wert der Messgröße liegen sollte. Die Messunsicherheit ist stets positiv und wird ohne Vorzeichen angegeben. Jener durch die Messunsicherheit definierte Wertebereiches hat die Länge 2xMessunsicherheit. Der wahre Wert kann prinzipiell an jeder Stelle dieses Intervalls liegen.
Im Sinne der klassischen Gaußschen Fehlerrechnung stellt sie ein quantitatives Maß für die Streuung der Messwerte dar. Ob diese klassische Auffassung noch vertretbar ist, steht gegenwärtig in der Diskussion .
Die klassischen Gaußschen Formlismen verarbeiten allein zufällige Messfehler. Indessen hat schon Gauß selbst auf eine zweite Fehlerart hingewiesen, ohne diese jedoch in seine Formalismen aufzunehmen. Dabei handelt es sich um sogenannte unbekannte systematischer Messfehler. Gegenwärtig werden unbekannte systematische Messfehler - je nach Fehlermodell - auf unterschiedlichen Wegen in die Messunsicherheit integriert. Die dann strukturell neu definierte Meßunsicherheit kann dann wieder in Gestalt einer Streuung auftreten oder auch nicht.
Dieser letztere Aspekt definiert die gegenwärtige Kontroverse um die Verfahrensweisen zum Schätzen von Messunsicherheiten.
Verfahrensweisen
Da es den Experimentatoren aus physikalischen Gründen prinzipiell nicht möglich ist, unbekannte systematische Fehler zu beseitigten oder eliminierten, und da sie überdies in einer mit den zufälligen Meßfehlern vergleichbaren Größenordnung liegen, bedürfen die klassischen Gaußschen Formalismen der Revision.
Zum Ermitteln der Messunsicherheit stehen gegenwärtig unterschiedliche Verfahren zur Verfügung, die auf statistischen und nicht-statistischen Methoden beruhen. Weltweit gebräuchlich ist der ISO Guide (GUM), der die klassischen Gaußschen Formalismen mit Hilfe eines Kunstgriffs fortschreibt.
In der Diskussion steht ein zweiter, sich hiervon wesentlich unterscheidender Formalismus, der unbekannte systematische Fehler als Vorlasten oder Biases interpretiert und damit zu einer gänzlich anderen Form der Fehlerrechnung führt. Er bildet unbekannte systematische Messfehler physikalisch gesehen realistischer ab, d.h. als zeitkonstante Größen. In Konsequenz dessen arbeitet er a priori mit den wahren Werten der Schätzer, wobei die zeitkonstanten unbekannten Messfehler sogenannte nichterwartungstreue Schätzer generieren. Diese Vorgehensweise führt zu einem von der Gaußschen Fehlerrechnung wesentlich abweichenden Konzept.
Diskussion der Ansätze
Der ISO-Guide randomisiert unbekannte systematische Fehler mittels einer Rechteckdichte. Randomisieren soll heißen, zeitkonstante, unbekannte systematische Messfehler formal den zufälligen Fehlern gleichzustellen - eben mit Hilfe jener dem Formalismus per Postulat hinzugefügten Rechteckdichte. In Konsequenz dieses Kunstgriffs ist der ursprüngliche, von Gauß definierte Ausgangspunkt der Fehlerrechnung, allein Messfehler zufälligen Charakters zu berücksichtigen, formal wiederhergestellt. Diese Vorgehensweise kann letztlich jedoch nicht überzeugen.
Messunsicherheiten sollen vor allem sicher sein. Schon die direkte Messung einer einzigen physikalische Größe offenbart die Problematik des Randomisierens: Die Messunsicherheit fällt, wie Rechnersimulationen beweisen, in der Regel zu klein aus. Um diesen Missstand zu beheben, erweitert der ISO-Guide die zu niedrige Unsicherheitsangabe mit Hilfe eines ad hoc definierten Erweiterungsfaktors . Der Guide empfiehlt zu setzen.
Im Prinzip wird die Messunsicherheit damit wieder brauchbar. Betrachtet man indessen eine Situation, in der die zufälligen Fehler gegenüber dem unbekannten systematischen Fehler vernachlässigbar klein sind, so lässt sich leicht zeigen, dass der Erweiterungsfaktor dem unbekannten systematischen Messfehler dann einen Wert außerhalb der Grenzen der ihm per Postualt zugewiesenen Rechteckdichte zuordnet. Abgesehen davon, daß die Realisierungen einer Zufallsvariable, die einer Rechteckdichte unterliegt, nicht außerhalb der Grenzen eben dieser Rechteckdichte liegen können, daß also bereits auf formal niedrigster Stufe ein nicht behebbarer Widerspruch vorliegt, ist die Idee des Randomisierens, nämlich den unbekannten systematische Fehler innerhalb der Grenzen der Rechteckdichte zu halten, damit zu einen Widerspruch in sich geworden.
Betrachten wir noch die Auswirkungen des Randomisierens unbekannter systematischer Fehler auf den Ausgleich nach kleinsten Quadraten, einem der Standardwerkzeuge des Datenanalyse.
Wie bekannt, bewirken die Gewichte des Ausgleichs zweierlei: Sie verschieben die numerischen Werte der Schätzer und sie veringern deren Meßunsicherheiten. Ob sich die numerischen Werte der Schätzer "zu den wahren Werten hin" oder "von ihnen weg schieben", weiß der Experimentator nicht. Es kann also sein, daß sich einige oder auch alle Schätzer von den wahren Werten weg schieben. Da sich die zugehörigen Messunsicherheiten verringern, wird die Lokalisierung der wahren Werte - sollte sie vor dem Wichten vorgelegen haben - nach dem Wichten wesentlich fragwürdiger. Auch dürfte es wenig Sinn machen zu veruchen, die Situation mit Hilfe ad hoc definierter -Faktoren retten zu wollen.
Die zweite in der Diskussion stehende Möglichkeit, die Gaußsche Fehlerrechnung arbeitet mit nichterwartungstreuen Schätzern. Zu dem durch zufällige Messfehler bedingten Unsicherheitsanteil wird der durch systematische Messfehler bedingte Anteil linear hinzugefügt. Dabei werden die systematischen Meßfehler worst-case Abschätzungen unterworfen. Diese letztere Maßnahme und die lineare Addition der Unsicherheitsanteile stellen sicher, daß die Messunsicherheiten groß genug sind, um die wahren Werte der Messgrößen lokalisieren zu können.
Voraussetzung ist allerdings, dass die empirischen Daten dem Fehlermodell genügen, das diesen Überlegungen zugrunde liegt.
Siehe auch
Fehler, Fehlerrechnung, Messfehler, Messgerätefehler
Literatur
- DIN 1319, Beuth-Verlag
- DIN, Dt. Institut für Normung e.V. (Hrsg.): Leitfaden zur Angabe der Messunsicherheit beim Messen. 1. Auflage. Beuth Verlag GmbH, Berlin 1995, ISBN 3-410-13405-0
- Grabe, M.: Measurement Uncertainties in Science and Technology, Springer April 2005. ISBN 3-540-20944-1