Messunsicherheit
Die Messunsicherheit des Schätzwertes oder Schätzers einer physikalischen Größe grenzt einen Wertebereich ein, innerhalb dessen der wahre Wert der Messgröße liegen soll. Das Ergebnis einer Messung ist erst durch Schätzer und Messunsicherheit definiert. Die Messunsicherheit ist positiv, sie wird ohne Vorzeichen angegeben. Messunsicherheiten sind selbst Schätzer.
Begriff
Meistens legt die Messunsicherheit einen zum Schätzer der Messgröße symmetrisch liegenden Wertebereich fest. Innerhalb dieses Bereiches sollte der wahre Wert der Messgröße liegen. Das Messergebnis ist durch einen Ausdruck der Form
Schätzer <math>\pm</math> Messunsicherheit
gegeben. Der so definierte Bereich hat die Länge der doppelten Messunsicherheit.
Der wahre Wert der Messgröße kann prinzipiell an jeder Stelle des so definierten Intervalls liegen, ist also keinesfalls in der Intervallmitte zu suchen – dort liegt der Schätzer des wahren Wertes.
Ermitteln der Messunsicherheit
Die „klassische“ Gaußsche Fehlerrechnung verarbeitet nur zufällige Messfehler. Indessen hat schon Carl Friedrich Gauß auf die Existenz und Bedeutung sogenannter unbekannter systematischer Messfehler hingewiesen. Letzere sind zeitkonstante, nach Betrag und Vorzeichen unbekannte Messfehler, die sich aus physikalischen Gründen weder eliminieren noch beseitigen lassen. Wie wir heute wissen, liegen unbekannte systematische Messfehler in einer mit den zufälligen Messfehlern vergleichbaren Größenordnung. Naturgemäß verlieren die klassischen Gauß'schen Formalismen der Fehlerrechnung unter diesem Gesichtspunkt ihre Gültigkeit.
Um diesen Mißstand zu beheben, wurde im Jahre 1978 damit begonnen, Überlegungen zur Revision der Fehlerrechnung anzustellen. Bereits damals standen zwei sich wesentlich voneinander unterscheidende Konzepte zur Diskussion.
In der Folgezeit hat sich das vordergründigerweise einfachere Konzept durchgesetzt, nämlich das, das die Gauß'sche Fehlerrechnung mit Hilfe eines Kunstgriffs formal fortschreibt. Ungeachtet dauerhafter und breitgefächerter Kritik ist es unter der Bezeichnung GUM internationaler Standard geworden.
Das zweite, zu jener Zeit noch nicht abgeschlossene Konzept revidiert die Gauß'sche Fehlerrechnung ab initio, d.h. von Grund auf. Es ist in allen Anwendungsvarianten selbstkonsistent, einfacher und übersichtlicher in der Handhabung und insbesondere in der Lage, dem Experimentator verlässliche Messunsicherheiten an die Hand zu geben. Dieses Konzept ist bis heute von keiner Seite kritisiert worden.
Struktur der Messunsicherheit
Nach GUM bleibt die Messunsicherheit ihrem Wesen nach eine Streuung, die den wahren Wert der Messgröße, so die Vorstellung, mit einer gewissen Wahrscheinlichkeit einschliessen solle. In Konsequenz der veränderten Fehlersituation ist diese Wahrscheinlichkeit allerdings nicht spezifizierbar. Dieser Umstand nimmt dem GUM den scheinbaren Vorteil, Messunsicherheiten weiterhin in Form von Streuungen ausdrücken und diesen, ganz im klassischen Sinne, Wahrscheinlichkeitsaussagen zuordnen zu können . Siehe Beispiel unten.
Der GUM „randomisiert“ zeitkonstante unbekannte systematische Fehler mittels einer postulierten Rechteckdichte, die er dem Gauß'schen Formalimus ad hoc hinzufügt. Dieser Kunstgriffs stellt die systematischen Fehler den zufälligen Fehlern formal gleich.
Dagegen integriert der zu GUM alternative Formalismus die unbekannten systematischen Messfehler so wie sie sich physikalisch darstellen, nämlich als zeitkonstante Störgrößen. Anstatt sie wahrscheinlichkeitstheoretisch zu behandeln, wird ihr Einfluß mittels worst case Abschätzungen zum Tragen gebracht. Die Messunsicherheit setzt sich additiv aus zwei Komponenten zusammen, die eine trägt dem Einfluß zufälliger und die andere dem Einfluß unbekannter systematischer Messfehlern Rechnung.
Die Formalismen unterscheiden sich vom GUM durch das explizite Auftreten wahrer Werte und nichterwartungstreuer Schätzer.
Von der Messunsicherheit wird vor allem verlangt, dass sie sicher sei, d.h. den wahren Wert der Messgröße auch tatsächlich einschließe. Die sogenannte - Messunsicherheit des GUM würde zu unzuverlässigen Messunsicherheiten führen. Aus disem Grunde führt der GUM ad hoc die sogenannte erweiterte Messunsicherheit ein. Da ein auf einfache Weise ableitbarer, dem Student-Faktor äquivalenter Erweiterungsfaktor nicht existiert, bildet der GUM die erweiterte Messunsicherheit ad hoc indem er die -Messunsicherheit mit einem Faktor multipliziert. Der GUM empfiehlt zu setzen.
Weder zur einfachen noch zur erweiteren Messunsicherheiten sind allerdings Wahrscheinlichkeiten angebbar. Siehe Beispiel unten.
Das zweite, zum GUM alternative Konzept verzichtet von vornherein auf die Angabe von Wahrscheinlichkeiten und legt stattdessen
die kleinstmöglichen Messunsicherheiten fest, die den wahren Werte der Messgrößen quasi-sicher einschließen.
Voraussetzung ist, dass die Messapparatur driftfrei und statistisch stationär arbeitet und dass die zufälligen Messfehler wenigstens approximativ normalverteilt sind.
Beispiel
Zur Verdeutlichung soll die Unsicherheit des arithmetischen Mittels aus Wiederholungsmessungen , , , ermittelt werden.
Den Messwerten liegt das Fehlermodell
<math>x_l=x_0+\varepsilon_l+f ;\quad l=1,2,\ldots,n</math>
zugrunde; bezeichnet den wahren Wert der Messgröße, den zufälligen Messfehler und den unbekannten systematischen Messfehler. Die zufälligen Fehler sollen normalverteilt sein, der unbekannte systematische Fehler liegt im Intervall .
Der am häufigsten verwendete Schätzer des unbekannten wahren Wertes ist das arithmetischen Mittels
<math>\bar{x}=\frac{1}{n}\sum\limits_{l=1}^nx_l</math>
Die empirische Varianz der Wiederholungsmessungen
<math>s^2=\frac{1}{n-1}\sum\limits_{l=1}^n(x_l-\bar{x})^2</math>
beschreibt allein die statistische Streuung der Messdaten - der systematische Fehler hebt sich aus der Differenz heraus.
Nach dem GUM ist das Messergebnis
<math>\bar{x}\pm u_{\bar{x}};\quad u_{\bar{x}}=k_p \sqrt{\frac{s^2}{n}+\frac{f_s^2}{3}}</math>;
hierin ist die Messunsicherheit. Der Erweiterungsfaktor sollte aus der Faltung der Normalverteilung mit der Rechteckverteilung hervorgehen. Da die Parameter der Normalverteilung und unbekannt sind, ist die Faltung praktisch nicht realisierbar. Selbst wenn sie durchführbar wäre, würde sie noch vom Verhältnis abhängen - für die alltägliche Laborpraxis nicht akzeptabel, weil zu kompliziert.
Überdies demonstriert der GUM schon auf dieser elementaren Verknüpfungsstufe einen gravierenden Widerspruch in sich, d.h. seine Aussagen widersprechen den Voraussetzungen, die ihm zu Grunde gelegt worden sind: Nehmen wir an, die zufälligen Fehler seien gegenüber dem unbekannten systematischen Fehler vernachlässigbar klein. Paradoxerweise geht dann über in
<math>\frac{2}{\sqrt3} f_s</math>.
Da schätzt der GUM die Messunsicherheit mit Hilfe einer Realisierung des systematischen Fehlers, die außerhalb der letzterem zugewiesenen Rechteckdichte liegt, d.h. die den Voraussetzungen der Randomisierung widerspricht.
Demgegenüber liefert die alternative Vorgehensweise
<math>\bar{x}\pm u_{\bar{x}}; \quad u_{\bar{x}}=\frac{t_P}{\sqrt{n}}\;s_x+f_{s}</math>.
Hierin ist der Student-Faktor, bezogen auf die Wahrscheinlichkeit . Diese letztere Wahrscheinlichkeitsaussage gilt indessen nicht für die Unsicherheit .
Wie das Einsetzen der Fehlergleichung in das arithmetische Mittel zeigt,
<math>\bar{x}=x_0+\frac{1}{n}\sum\limits_{l=1}^n \varepsilon_l +f</math>,
streut das Mittel nicht um den wahren Wert , sondern um den vorbelasteten Erwartungswert
<math>x_0+f</math>.
Der Bias ist der systematische Fehler . Die Unsicherheitskomponente
<math>\pm \frac{t_P}{\sqrt{n}}\;s_x</math>
bringt nichts anderes zum Ausdruck als das klassische Student'sche Konfidenzintervall. Zu berücksichtigen ist aber weiterhin der durch systematische Fehler bedingte Unsicherheitsanteil. Da nicht bekannt ist, wo im Intervall liegt, wird durch geschätzt, also im Sinne des ungünstigsten Falles (worst-case). Das Vorzeichen von sorgt dafür, das letztlich beide Intervallgrenzen zum Tragen kommen. Wenn man abschliessend noch die Beobachtung hinzunimmt, das experimentelle Daten im allgemeinen jedenfalls nicht so stark streuen, wie nach der Normalverteilung eigentlich zulässig, kommt man zur Aussage, die Messunsicherheit schliesse den wahren Wert "quasi-sicher" ein - obwohl Rechnersimulation durchaus Nichtlokalisierungen zeigen.
Diese Überlegungen sind auf die Fehlerfortpflanzung und den Ausgleich nach kleinsten Quadraten übertragbar, wobei die Aussageformen hinsichtlich der Lokalisierung wahrer Werte erhalten bleiben.
Der GUM hingegen führt schon im Falle der Fehlerfortpflanzung zu faktisch nicht mehr kontrollierbaren Aussagen. Diese Situation verstärkt sich beim Ausgleich nach kleinsten Quadraten - der GUM kann Anlass zu gravierenden Fehleinschätzungen geben. Ursache dafür ist, dass unbekannte systematische Messfehler das sogenannte Gauß-Markoffsche Theorem außer Kraft setzen.
Das Fehlermodell des GUM kann schließlich nicht erklären, warum ein weiteres Handwerkszeug der Labortechnik, die Varianz-Analyse, versagt.
Aufgrund seiner Unzulänglichkeiten steht zweifelsfrei fest, dass der GUM dringenst durch ein den Zwecken der Metrologie dienlicheres Konzept ersetzt werden muß.
Einen Vorschlag unterbreitet die unten angegebene Monographie.
Siehe auch
Literatur
- DIN 1319, Beuth-Verlag
- DIN, Dt. Institut für Normung e.V. (Hrsg.): Leitfaden zur Angabe der Messunsicherheit beim Messen. 1. Auflage. Beuth Verlag GmbH, Berlin 1995, ISBN 3-410-13405-0
- Grabe, M., Neue Formalismen zum Schätzen von Messunsicherheiten - Ausgleich nach kleinsten Quadraten, tm Technisches Messen, 9(2005)531-540
- Grabe, M.: Measurement Uncertainties in Science and Technology, Springer April 2005. ISBN 3-540-20944-1