„Normalverteilung“ – Versionsunterschied
[ungesichtete Version] | [gesichtete Version] |
Selbst ausgedacht? Dann hat das hier nichts zu suchen. Andernfalls bitte belegen. Der Screenshot trägt in keinem Fall etwas bei. Markierung: Rückgängigmachung |
|||
Zeile 1: | Zeile 1: | ||
{{Infobox Verteilung |
|||
[[Bild:Normal_density.png|thumb|Dichten normalverteilter Zufallsgrößen]] |
|||
| name = |
|||
| type = density |
|||
| pdf_image = [[Datei:Normal Distribution PDF.svg|350px|class=skin-invert]] Dichtefunktionen der Normalverteilung <math>\mathcal N(\mu,\sigma^2)</math>:<br /><math>\mathcal N(0;0{,}2)</math> (blau), <math>\mathcal N(0;1)</math> (rot), <math>\mathcal N(0;5)</math> (gelb) und <math>\mathcal{N}(-2;\,0{,}5)</math> (grün) |
|||
| cdf_image = [[Datei:Normal-distribution-cumulative-distribution-function-many.svg|350px|class=skin-invert]] Verteilungsfunktionen der Normalverteilungen:<br /><math>\mathcal N(0;0{,}2)</math> (blau), <math>\mathcal N(0;1)</math> (rot), <math>\mathcal N(0;5)</math> (gelb) und <math>\mathcal{N}(-2;\,0{,}5)</math> (grün) |
|||
| notation = <math>\mathcal{N}(\mu,\sigma^2)</math> |
|||
| parameters = <math>\mu \in \R</math> – Erwartungswert <br /> |
|||
<math>\sigma^2 > 0</math> – Varianz <br /> |
|||
(<math>\mu</math> ist [[Lagemaß (Stochastik)|Lageparameter]], <math>\sigma</math> ist [[Skalenparameter]]) |
|||
| support = <math>\mathcal T_X =\R</math> |
|||
| pdf = <math>\frac{1}{\sqrt{2\pi\sigma^2}}\operatorname{exp}\left(-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2\right)</math> |
|||
| cdf = <math>\frac12\left(1 + \operatorname{erf}\left( \frac{x-\mu}{\sqrt{2\sigma^2}}\right)\right) </math><br />– mit [[Fehlerfunktion]] <math>\operatorname{erf}(x)</math> |
|||
| mean = <math>\mu</math> |
|||
| median = <math>\mu</math> |
|||
| mode = <math>\mu</math> |
|||
| variance = <math>\sigma^2\,</math> |
|||
| skewness = <math>0</math> |
|||
| kurtosis = <math>3</math> |
|||
| entropy = <math>\frac12 \log_2(2 \pi e \, \sigma^2)</math> |
|||
| mgf = <math>\exp\left(\mu t + \tfrac{1}{2}\sigma^2t^2\right)</math> |
|||
| char = <math>\exp\left(i\mu t - \tfrac{1}{2}\sigma^2 t^2\right)</math> |
|||
| fisher = <math>\mathcal{I}(\mu,\sigma) =\begin {pmatrix} 1/\sigma^2 & 0 \\ 0 & 2/\sigma^2\end{pmatrix}</math> <math>\mathcal{I}(\mu,\sigma^2) =\begin {pmatrix} 1/\sigma^2 & 0 \\ 0 & 1/(2\sigma^4)\end{pmatrix}</math> |
|||
}} |
|||
Die '''Normal-''' oder '''Gauß-Verteilung''' (nach [[Carl Friedrich Gauß]]) ist in der [[Stochastik]] ein wichtiger Typ stetiger [[Wahrscheinlichkeitsverteilung]]en. Ihre [[Wahrscheinlichkeitsdichtefunktion]] wird auch ''Gauß-Funktion'', ''gaußsche Normalverteilung'', ''gaußsche Verteilungskurve'', ''Gauß-Kurve'', ''gaußsche Glockenkurve'', ''gaußsche Glockenfunktion'', ''Gauß-Glocke'' oder schlicht ''Glockenkurve'' genannt. Sie hat die Form |
|||
:<math>f(x)= \frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}, \quad x \in \R</math> |
|||
mit dem Erwartungswert <math>\mu</math> und der Standardabweichung <math>\sigma</math>. |
|||
Die besondere Bedeutung der Normalverteilung beruht unter anderem auf dem [[Zentraler Grenzwertsatz|zentralen Grenzwertsatz]], dem zufolge Verteilungen, die durch additive Überlagerung einer großen Zahl von unabhängigen Einflüssen entstehen, unter schwachen Voraussetzungen annähernd normalverteilt sind. |
|||
Die '''Gauß-''' oder '''Normalverteilung''' (nach [[Carl Friedrich Gauß]]) ist ein wichtiger Typ kontinuierlicher [[Wahrscheinlichkeitsverteilung]]en. Ihre Wahrscheinlichkeitsdichte wird auch '''Gauß-Funktion''', '''Gauß-Kurve''', '''Gauß-Glocke''' oder '''Glockenkurve''' genannt. |
|||
In der [[Messtechnik]] wird häufig eine Normalverteilung angesetzt, um die Streuung von Messwerten zu beschreiben. |
|||
Die besondere Bedeutung der Normalverteilung beruht unter anderem auf dem [[Zentraler Grenzwertsatz|zentralen Grenzwertsatz]], der besagt, dass eine Summe von <math> n </math> unabhängigen, identisch verteilten [[Zufallsvariable|Zufallsvariablen]] im [[Grenzwert (Mathematik)|Grenzwert]] <math>n\rightarrow\infty</math> normalverteilt ist. |
|||
Die Abweichungen der Messwerte vieler natur-, wirtschafts- und ingenieurwissenschaftlicher Vorgänge vom [[Erwartungswert]] lassen sich durch die Normalverteilung in guter Näherung beschreiben (vor allem Prozesse, die in mehreren Faktoren unabhängig voneinander in verschiedene Richtungen wirken). |
|||
Zufallsvariablen mit Normalverteilung benutzt man zur Beschreibung zufälliger Vorgänge wie: |
|||
Viele natur-, wirtschafts- und ingenieurswissenschaftliche Vorgänge lassen sich durch die Normalverteilung entweder exakt oder wenigstens in sehr guter Näherung beschreiben (vor allem Prozesse, die in mehreren Faktoren unabhängig voneinander in verschiedene Richtungen wirken). |
|||
* zufällige Streuung von Messwerten, |
|||
Die Normalverteilung ist durch die [[Wahrscheinlichkeitsdichte]] |
|||
* zufällige Abweichungen vom [[Sollmaß]] bei der Fertigung von Werkstücken, |
|||
:<math>f(x)= \frac{1}{\sigma\sqrt{2\pi}}\, |
|||
* Beschreibung der [[Brownsche Bewegung|brownschen Molekularbewegung]]. |
|||
e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}</math>, |
|||
gegeben, wobei <math>\mu</math> der [[Erwartungswert]] und <math>\sigma</math> die [[Standardabweichung]] ist. |
|||
Der Erwartungswert kann als Schwerpunkt der Verteilung interpretiert werden. Die [[Standardabweichung (Wahrscheinlichkeitstheorie)|Standardabweichung]] gibt ihre Breite an. |
|||
==Definition== |
|||
== Geschichte == |
|||
Eine [[stetige Zufallsvariable]] <math> X </math> mit der [[Wahrscheinlichkeitsdichtefunktion| Wahrscheinlichkeitsdichte]] |
|||
Im Jahre 1733 zeigte [[Abraham de Moivre]] in seiner Schrift ''The Doctrine of Chances'' im Zusammenhang mit seinen Arbeiten am [[Satz von Moivre-Laplace|Grenzwertsatz für Binomialverteilungen]] eine Abschätzung des [[Binomialkoeffizient]]en, die als Vorform der Normalverteilung gedeutet werden kann.<ref name="Götze 2002" /> |
|||
:<math>f:\R\to\R,\ x\mapsto \frac{1}{\sigma\sqrt{2\pi}}\, |
|||
e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}</math> |
|||
heißt '''<math>\mu</math>-<math>\sigma</math>-normalverteilt'''. |
|||
Die für die Normierung der Normalverteilungsdichte zur Wahrscheinlichkeitsdichte notwendige Berechnung des nicht[[Elementare Funktion|elementaren]] [[Integralrechnung|Integral]]s |
|||
Hierbei ist |
|||
: <math>\int_{-\infty}^{+\infty}e^{-\frac 12 t^2}\mathrm dt = \sqrt{2\pi}</math> |
|||
* <math>\mu=E(X)</math> der [[Erwartungswert]], |
|||
gelang [[Pierre-Simon Laplace]] im Jahr 1782 (nach anderen Quellen [[Siméon Denis Poisson|Poisson]]). |
|||
* <math>\sigma=\sigma(X)</math> die [[Standardabweichung]] und |
|||
* <math>\sigma^2=V(X)</math> die [[Varianz]] |
|||
von <math>X</math>. |
|||
Im Jahr 1809 publizierte Gauß sein Werk ''Theoria motus corporum coelestium in sectionibus conicis solem ambientium'' ({{deS}} ''Theorie der Bewegung der in Kegelschnitten sich um die Sonne bewegenden Himmelskörper''), das neben der [[Methode der kleinsten Quadrate]] und der [[Maximum-Likelihood-Schätzung]] die Normalverteilung definiert. |
|||
In der Literatur wird auch die Bezeichnung '''<math>(\mu,\sigma^2)</math>-normalverteilt''' (das Quadrat ² wird dabei immer explizit geschrieben) oder ähnliches verwendet. Zur Beschreibung der Eigenschaft der [[Zufallsvariable]] <math>X</math>, <math>\mu</math>-<math>\sigma</math>-normalverteilt zu sein, verwendet man die Notation <math>X \sim \mathcal{N}(\mu, \sigma^2)</math>. |
|||
Wiederum Laplace war es, der 1810 den [[Zentraler Grenzwertsatz|Satz vom zentralen Grenzwert]] bewies, der die Grundlage der theoretischen Bedeutung der Normalverteilung darstellt und de Moivres Arbeit am Grenzwertsatz für Binomialverteilungen abschloss. |
|||
[[Adolphe Quetelet]] erkannte schließlich bei Untersuchungen des Brustumfangs von mehreren tausend Soldaten im Jahr 1845 eine verblüffende Übereinstimmung mit der Normalverteilung und brachte die Normalverteilung in die [[angewandte Statistik]].<ref>{{Literatur |Autor= |Titel=Sur l'appréciation des documents statistiques, et en particulier sur l'appréciation des moyennes |Sammelwerk=Bulletin de la Commission Centrale des Statistique |Band=2 |Datum=1845 |Seiten=205–286 |Online=https://books.google.be/books?id=eUxAAAAAcAAJ}}</ref> |
|||
==Eigenschaften== |
|||
Zunächst wurde die Normalverteilung als Fehlergesetz (''Law of Error'') oder Fehlerkurve (''error curve'') bezeichnet. Die erste unzweideutige Verwendung der Bezeichnung „Normalverteilung“ für die Verteilung mit der Formulierung „Normal Curve of Distribution“ wird [[Francis Galton]] (1889)<ref>{{Literatur |Autor=Francis Galton |Titel=Natural Inheritance |Verlag=Macmillan |Ort=London |Datum=1889 |Fundstelle=S. 51, ''Normal Curve of Distribution''}}</ref> zugeschrieben.<ref>{{Literatur |Autor=Herbert A. David |Titel=First (?) Occurence of Common Terms in Mathematical Statistics |Sammelwerk=The American Statistician |Band=49 |Nummer=2 |Seiten=121–133 |Datum=1995 |JSTOR=2684625}}</ref><ref>{{Internetquelle|autor=Jeff Miller |titel= Earliest Known Uses of Some of the Words of Probability & Statistics |url=https://web.universiteitleiden.nl/fsw/verduin/stathist/1stword.htm |abruf=2023-09-27}}</ref> Der Wissenschaftshistoriker Stephen M. Stigler identifizierte<ref>{{Literatur |Autor=Stephen M. Stigler |Titel=Statistics on the Table. The History of Statistical Concepts and Methods |Verlag=Harvard University Press |Ort=Cambridge / London |Datum=1999 |ISBN=0-674-00979-7}}</ref> drei frühere – vermutlich voneinander unabhängige – Verwendungen des Wortes ''normal'' im Zusammenhang mit der später Normalverteilung genannten Verteilung durch [[Charles S. Peirce]] (1873),<ref>{{Literatur |Autor=Charles S. Peirce| Titel=On the theory of errors of observations |Sammelwerk= Report of the Superintendent of the U. S. Coast Survey for the Year Ending June 1870, Appendix no. 21| Seiten=200-224|Kommentar=Wiederabgedruckt in S. M. Stigler (Hrsg.), ''American Contributions to Mathematical Statistics in the Ninteenth Century'', 2 Bände. Arno Press, New York 1980}}</ref> Francis Galton (1877)<ref>{{Literatur |Autor= Francis Galton |Titel= Typical laws of heredity |Sammelwerk=Nature |Band=15 |Datum=1877 |Seiten=492–495, 512–514, 532–533 |Kommentar= Auch publiziert in ''Proceedings of the Royal Institution of Great Britain''. Band 8, 1877, S. 282–301}}</ref> und [[Wilhelm Lexis]] (1877),<ref>{{Literatur |Autor=Wilhelm Lexis |Titel=Zur Theorie der Massenerscheinungen in der menschlichen Gesellschaft |Verlag=Fr. Wagner’sche Buchhandlung |Ort=Freiburg i. B. |Datum=1877 |Online=http://dspace.utlib.ee/dspace/bitstream/10062/3542/7/lexistheorieocr.pdf}}</ref> dabei werden eher die beobachteten Werte oder Teile der beobachteten Werte als „normal“ bezeichnet. |
|||
Die [[Verteilungsfunktion]] der Normalverteilung ist gegeben durch |
|||
:<math> F(x) = \frac {1}{\sigma \cdot \sqrt{2\pi}} \cdot \int_{-\infty}^{x} e^{-\frac{1}{2} \cdot \left( \frac{t-\mu}{\sigma}\right)^2} \mathrm{d}t</math>. |
|||
{{Anker|Standardnormalverteilung}} |
|||
Der Graph der Wahrscheinlichkeitsdichte <math> f:\R\to\R</math> ist eine Gauß'sche Glockenkurve, welche [[Symmetrie (Geometrie)|symmetrisch]] zum Wert von <math> \mu </math> ist und deren Höhe und Breite von <math> \sigma </math> abhängt. An der Stelle <math> \mu </math> liegt dabei der [[Hochpunkt]] und an <math> \mu-\sigma </math> und <math> \mu+\sigma </math> befinden sich die [[Wendepunkt|Wendepunkte]] der Kurve (siehe hierzu auch [[Kurvendiskussion]]). |
|||
== Definition == |
|||
Wichtig ist, dass die gesamte Fläche unter der [[Funktionsgraph|Kurve]] gleich 1 ist, also der Wahrscheinlichkeit eines sicheren [[Ereignis (Wahrscheinlichkeitstheorie)|Ereignisses]] entspricht. Somit folgt, dass wenn zwei Gauß'sche Glockenkurven dasselbe <math> \mu </math>, aber unterschiedliche <math>\sigma</math> Werte haben, jene Kurve mit dem größeren <math> \sigma </math> breiter und niedriger ist (da ja beide zugehörigen Flächen jeweils den Wert von 1 haben und nur die Standardabweichung (oder „[[Streuung (Statistik) | Streuung]]“) höher ist). Zwei Glockenkurven mit dem gleichen <math> \sigma </math>, aber unterschiedlichen <math> \mu </math> haben gleich aussehende Graphen, die jedoch auf der x-Achse um die Differenz der <math> \mu </math>-Werte zueinander verschoben sind. |
|||
Eine [[Zufallsvariable]] <math>X</math> hat eine Normalverteilung mit Erwartungswert <math>\mu</math> und [[Standardabweichung]] <math>\sigma |
|||
</math> bzw. [[Varianz (Stochastik)|Varianz]] <math>\sigma^2</math>, wobei <math>\mu,\sigma \in \R ,\; \sigma > 0</math>, oft geschrieben als <math>X\sim\mathcal{N}\left(\mu,\sigma^2\right)</math>, wenn <math>X</math> die folgende Wahrscheinlichkeitsdichte hat:<ref>Bronstein: [[Taschenbuch der Mathematik]]. Kap. 16, Wahrscheinlichkeitsrechnung und mathematische Statistik. </ref><ref>George G. Judge, R. Carter Hill, W. Griffiths, [[Helmut Lütkepohl]], T. C. Lee: ''Introduction to the Theory and Practice of Econometrics.'' 1988, S. 47.</ref> |
|||
: <math>f(x \mid\mu,\sigma^2)=\frac{1}{\sigma \sqrt{2\pi}}\, \mathrm{e}^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2} </math>. |
|||
Da sich das [[Integral]] der Verteilungsfunktion nicht auf eine elementare [[Stammfunktion]] zurückführen lässt, wurde für die Berechnung früher meist auf Tabellen zurückgegriffen (siehe dazu die [[Tabelle Standardnormalverteilung | Tabelle der Verteilungsfunktion]] der Standardnormalverteilung); heutzutage sind entsprechende Zellenfunktionen in üblichen Tabellenkalkulationsprogrammen stets verfügbar. Tabellen wie Zellenfunktionen gelten aber in der Regel nicht für beliebige <math> \mu </math> und <math> \sigma </math> Werte, sondern nur für die '''Standardnormalverteilung''', bei der <math> \mu=0 </math> und <math> \sigma=1 </math> ist (man spricht auch von einer ''0-1-Normalverteilung'' oder ''normierten Normalverteilung''). |
|||
Eine Zufallsvariable, deren Wahrscheinlichkeitsverteilung eine Normalverteilung ist, heißt '''normalverteilt'''. Eine normalverteilte Zufallsvariable heißt auch '''gaußsche Zufallsvariable'''. |
|||
Die Tabellen sind also für die Wahrscheinlichkeitsfunktion <math> \Phi </math> (auch [[Fehlerintegral|Gauß'sches Fehlerintegral]] genannt) mit |
|||
:<math>\Phi(z)=\frac{1}{\sqrt{2\pi}} \cdot \int_{-\infty}^{z} e^{-\frac{1}{2}t^2} \mathrm{d}t</math> |
|||
ausgelegt. Analog dazu wird die zugehörige normierte Wahrscheinlichkeitsdichtefunktion <math> f </math> mit <math> \phi </math> bezeichnet. |
|||
Eine Normalverteilung mit den Parametern <math>\mu = 0</math> und <math>\sigma^2 = 1</math> heißt '''Standardnormalverteilung''', '''standardisierte Normalverteilung'''<ref>{{Literatur |Herausgeber=[[P. Heinz Müller|P. H. Müller]] |Titel=Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik |Verlag=Akademie-Verlag |Ort=Berlin |Datum=1991 |Auflage= 5 |ISBN=978-3-05-500608-1 |Fundstelle =''Normalveretilung'', S. 289}}</ref> oder '''normierte Normalverteilung'''.<ref>{{Literatur |Titel=Bronstein: [[Taschenbuch der Mathematik]]. Kap. 16, Wahrscheinlichkeitsrechnung und mathematische Statistik. |Verlag=Harri Deutsch Verlag |Datum=2000 |Auflage= 5 |ISBN=3-8171-2005-2 |Fundstelle=S. 779}}</ref> Eine Zufallsvariable, deren Wahrscheinlichkeitsverteilung eine Standardnormalverteilung ist, heißt '''standardnormalverteilt'''. Eine standardnormalverteilte Zufallsvariable hat die Dichtefunktion |
|||
Ist nun eine beliebige <math> \mu </math>-<math> \sigma </math>-Verteilung gegeben, so muss diese nur in eine Standardnormalverteilung transformiert werden. |
|||
: <math>\varphi(x)=\frac{1}{\sqrt{2\pi}} \mathrm{e}^{-\frac{1}{2} x^2}</math>, |
|||
siehe auch [[Fehlerintegral#Normierung|Fehlerintegral]]. |
|||
Zur mehrdimensionalen Verallgemeinerung siehe ''[[Mehrdimensionale Normalverteilung]]''. |
|||
== Transformation zur Standardnormalverteilung (Z-Transformation) == |
|||
Ist eine Normalverteilung mit beliebigen <math> \mu </math> und <math> \sigma </math> gegeben, so kann diese durch eine Transformation auf eine 0-1-Normalverteilung zurückgeführt werden. Dazu wird die Verteilungsfunktion <math> F(x) </math> der allgemeinen Normalverteilung mit <math> u=\frac{t-\mu}{\sigma} </math> substituiert und die Integralgrenzen werden angepasst: |
|||
=== Alternative Definition === |
|||
{| align="right" |
|||
|<small>Nebenrechnung für die Substitution </small> |
|||
|- |
|||
|<math> u=\frac{t-\mu}{\sigma} </math> |
|||
|- |
|||
|<math> \frac{\mathrm{d}u} {\mathrm{d}t}=\frac{\mathrm{d}} {\mathrm{d}t} \left(\frac{t-\mu} {\sigma}\right)=\frac{1}{\sigma}</math> |
|||
|- |
|||
|<math> \Rightarrow \mathrm{d}t=\mathrm{d}u \cdot \sigma </math> |
|||
|} |
|||
Alternativ lässt sich die Normalverteilung auch über ihre [[Charakteristische Funktion (Stochastik)|charakteristische Funktion]] definieren: |
|||
:<math> F(x) = \frac {1}{\sigma \cdot \sqrt{2\pi}} \cdot \int_{-\infty}^{x} e^{-\frac{1}{2} \cdot \left( \frac{t-\mu}{\sigma}\right)^2} \mathrm{d}t = </math> |
|||
:<math>\mathbb{E} \left[\mathrm{e}^{\mathrm{i}tX}\right] = \mathrm{e}^{\mathrm{i}t\mu-\frac{1}{2}\sigma^2t^2}, \quad t \in \R\;.</math> |
|||
Diese Definition erweitert die obige Definition zusätzlich um den Fall <math>\sigma^2=0</math>. |
|||
== Eigenschaften == |
|||
::<math> = \frac {1}{\sigma \cdot \sqrt{2\pi}} \cdot \int_{\frac{-\infty-\mu}{\sigma}}^{\frac{x-\mu}{\sigma}} e^{-\frac{1}{2}u^2} \mathrm{d}u \cdot \sigma= </math> |
|||
=== Erwartungswert und Varianz === |
|||
Ist <math>X \sim \mathcal{N}\left(\mu, \sigma^2\right)</math>, dann gilt für den [[Erwartungswert]] |
|||
: |
: <math>\operatorname{E}(X)=\frac{1}{\sqrt{2\pi \sigma^2}}\int_{-\infty}^{+\infty} x e^{ -\frac{(x-\mu)^2}{2\sigma^2} } \, \mathrm dx=\mu</math> |
||
und für die [[Varianz (Stochastik)|Varianz]] |
|||
::<math> =\Phi \left(\frac{x-\mu}{\sigma}\right)</math> |
|||
: <math>\operatorname{Var}(X)=\frac{1}{\sqrt{2\pi \sigma^2}}\int_{-\infty}^{+\infty}(x-\mu)^2 e^{ -\frac{(x-\mu)^2}{2\sigma^2} } \, \mathrm dx=\sigma^2</math>. |
|||
Insbesondere ist der Erwartungswert der Standardnormalverteilung <math>0</math>, denn für <math>Z \sim \mathcal N\left(0,1\right)</math> gilt |
|||
Wird nun <math> z:= \frac{x-\mu}{\sigma} </math> definiert und <math> u </math> durch <math> t </math> ersetzt, so erhält man die Verteilungsfunktion der Standardnormalverteilung: |
|||
:<math> \Phi(z)=\frac{1}{\sqrt{2\pi}} \cdot \int_{-\infty}^{z} e^{-\frac{1}{2}t^2} \mathrm{d}t </math> |
|||
: <math> \operatorname{E}(Z) =\frac{1}{\sqrt{2\pi}}\int\limits_{-\infty}^{+\infty}x\ e^{-\frac 12 x^2}\mathrm dx = 0,</math> |
|||
''Anmerkung:'' Geometrisch betrachtet entspricht die durchgeführte Substition einer flächentreuen Transformation der Glockenkurve von <math> N(\mu;\sigma) </math> zur Glockenkurve von <math> N(0;1) </math>. |
|||
da der Integrand [[Uneigentliches Integral|integrierbar]] und [[Punktsymmetrie|punktsymmetrisch]] ist. |
|||
== Graph der Wahrscheinlichkeitsdichte == |
|||
=== Standardisierung === |
|||
<center> |
|||
Eine Zufallsvariable <math>X\sim\mathcal{N}(\mu,\sigma^2)</math> wird durch [[Standardisierung (Statistik)|Standardisierung]] in eine standardnormalverteilte Zufallsvariable <math>Z = (X-\mu)/\sigma</math> überführt. |
|||
<math> \varphi_{0;1}(x)=\frac{1}{\sqrt{2\pi}} \cdot e^{-\frac{1}{2}x^2}</math> |
|||
=== Verteilungsfunktion === |
|||
[[bild:Normalverteilung deutsch.png|Dichtefunktion der Standardnormalverteilung]] |
|||
Die Wahrscheinlichkeitsdichte einer normalverteilten Zufallsvariable ist nicht [[Elementare Funktion|elementar integrierbar]], sodass Wahrscheinlichkeiten [[Numerische Integration|numerisch]] berechnet werden müssen. Die Wahrscheinlichkeiten können mithilfe einer [[Standardnormalverteilungstabelle]] berechnet werden, die eine [[Standardisierung (Statistik)|Standardform]] verwendet. Dabei bedient man sich der Tatsache, dass die [[Lineare Abbildung|lineare Transformation]] einer normalverteilten Zufallsvariablen zu einer neuen Zufallsvariable führt, die ebenfalls normalverteilt ist. Konkret heißt das, wenn <math>X\sim\mathcal{N}\left(\mu,\sigma^2\right)</math> und <math>Y=aX+b</math>, wobei <math>a</math> und <math>b</math> [[Parameter (Mathematik)|Konstanten]] sind mit <math>a \ne 0</math>, dann gilt <math>Y\sim\mathcal{N}\left(a\mu+b,a^2\sigma^2\right)</math>. Damit bilden Normalverteilungen eine [[Lage-Skalen-Familie]]. |
|||
</center> |
|||
::So sieht die Dichtefunktion einer Standardnormalverteilung aus. Angegeben sind die Intervalle im Abstand 1, 2 und 3 Standardabweichungen vom Erwartungswert 0, die rund 68%, 95,5% und 99,7% der Fläche unter der Glockenkurve umfassen. Die gleichen Prozentsätze gelten für alle Normalverteilungen in Bezug auf die entsprechenden Erwartungswerte und Standardabweichungen. |
|||
Die [[Verteilungsfunktion]] der Normalverteilung ist durch |
|||
Die Normalverteilung ist eine Grenzverteilung, die nicht direkt beobachtet werden kann. Die Annäherung verläuft aber mit wachsendem n sehr schnell, so dass schon die Verteilung einer Summe von 30 oder 40 unabhängigen, identisch verteilten Zufallsgrößen einer Normalverteilung recht ähnlich ist. |
|||
: <math>F(x) = \frac{1}{\sigma\sqrt{2\pi}} \int_{-\infty}^x e^{-\frac{1}{2} \left(\frac{t-\mu}{\sigma}\right)^2} \mathrm dt, \quad x \in \R</math> |
|||
gegeben. Die Wahrscheinlichkeit, dass <math>X\sim\mathcal{N}(\mu,\sigma^2)</math> eine Realisierung im Intervall <math>[a,b]</math> hat, ist damit <math>P(X \in [a,b]) = F(b)-F(a)</math>. |
|||
Wenn man durch die [[Substitutionsregel|Substitution]] <math>t=\sigma z + \mu</math> statt <math>t</math> eine neue Integrationsvariable <math>z := \tfrac{t-\mu}{\sigma}</math> einführt, ergibt sich mit <math>\mu = 0</math> und <math>\sigma = 1</math> (gemäß dem oben angeführten Linearitätskriterium) |
|||
Die Glockenkurve schmückte, neben das Portrait von [[Carl Friedrich Gauß]] platziert, von [[1989]] bis [[2001]] die 10-[[Deutsche Mark|DM]]-Banknote der Bundesrepublik Deutschland. |
|||
: <math>F(x) = \frac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^{(x-\mu)/\sigma} e^{-\frac 12 z^2} \mathrm d z = \Phi \left(\frac{x-\mu}{\sigma}\right).</math> |
|||
Dabei ist <math>\Phi</math> die Verteilungsfunktion der Standardnormalverteilung: |
|||
: <math>\Phi(x) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^x e^{-\frac{1}{2} t^2} \mathrm dt.</math> |
|||
Mit der [[Fehlerfunktion]] <math>\operatorname{erf}</math> lässt sich <math>\Phi</math> darstellen als |
|||
: <math>\Phi(x) = \frac 12\left(1+\operatorname{erf}\left(\frac x{\sqrt 2}\right)\right).</math> |
|||
=== Funktionsgraph === |
|||
== Rechnen mit der Standardnormalverteilung == |
|||
Der [[Funktionsgraph|Graph]] der [[Dichtefunktion]] <math>f(x \mid\mu,\sigma^2)</math> bildet eine Gaußsche Glockenkurve und ist [[Symmetrische Wahrscheinlichkeitsverteilung|achsensymmetrisch]] mit dem [[Parameter (Statistik)|Parameter]] <math>\mu</math> als ''Symmetriezentrum'', der auch den Erwartungswert, den [[Median (Stochastik)|Median]] und den [[Modus (Stochastik)|Modus]] der Verteilung darstellt. Vom zweiten Parameter <math>\sigma</math> hängen Höhe und Breite der Wahrscheinlichkeitsdichte ab, die [[Wendepunkt]]e liegen bei <math>x=\mu\pm\sigma</math>. |
|||
Bei Aufgabestellungen, bei denen die Wahrscheinlichkeit für normalverteilte Zufallsvariablen durch die Standardnormalverteilung ermittelt werden soll, ist es nicht nötig, die oben angegebene Transformation jedesmal durchzurechnen. Stattdessen wird einfach das Ergebnis der Transformation verwendet, um die Grenzen <math> x_1 </math>, <math> x_2 </math> und die Zufallsvariable <math> X </math> auf die Grenzen <math> z_1 </math>, <math> z_2 </math> und die Zufallsvariable <math> Z </math> anzugleichen. Somit kann eine <math> N(\mu;\sigma^2) </math> Verteilung durch |
|||
:<math> z=\frac {x-\mu}{\sigma}</math> beziehungsweise <math> Z=\frac {X-\mu}{\sigma}</math> |
|||
zu <math> N(0;1) </math> transformiert werden. |
|||
Der Graph der Verteilungsfunktion <math>F</math> ist [[Punktsymmetrie#Punktsymmetrie von Funktionsgraphen|punktsymmetrisch]] zum Punkt <math>(\mu ; 0{,}5).</math> Für <math>\mu=0</math> gilt insbesondere <math>\varphi(-x) =\varphi(x)</math> und <math>\Phi(-x) = 1 - \Phi(x)</math> für alle <math>x \in \R</math>. |
|||
:<math> P( x_1 \leq X \leq x_2 ) = P\left( \frac {x_1-\mu}{\sigma} \leq Z= \frac {X-\mu}{\sigma} \leq \frac {x_2-\mu}{\sigma}\right)= P(z_1 \leq Z \leq z_2)</math> |
|||
Als Wahrscheinlichkeitsverteilung ist die [[Fläche unter der Kurve|Gesamtfläche unter der Kurve]] gleich <math>1</math>. |
|||
(<math>P </math> steht für die französische Bezeichnung "probabilité" der Wahrscheinlichkeit) |
|||
Dass jede Normalverteilung normiert ist, ergibt sich über die lineare [[Integration durch Substitution|Substitution]] <math>z= \tfrac{x-\mu}\sigma</math>: |
|||
===Grundlegende Fragestellungen=== |
|||
: <math> \int_{-\infty}^{+\infty}\frac 1{\sigma \sqrt{2\pi}} e^{-\frac 12 \left(\frac{x-\mu}\sigma\right)^2} \mathrm dx= \frac 1{\sqrt{2\pi}} \int_{-\infty}^{+\infty} e^{-\frac 12 z^2} \mathrm dz=1</math>. |
|||
Für die Normiertheit des letzteren Integrals siehe [[Fehlerintegral#Normierung|Fehlerintegral]]. |
|||
=== Momenterzeugende Funktion und höhere Momente === |
|||
Allgemein gibt die Verteilungsfunktion die Fläche unter der Glockenkurve bis zum Wert <math> x </math> an, d. h. es wird das bestimmte Integral von <math> -\infty </math> bis <math> x </math> berechnet. |
|||
Die [[momenterzeugende Funktion]] der <math>\mathcal{N}(\mu,\sigma^2)</math>-verteilten Normalverteilung <math>X</math> lautet |
|||
: <math>m_X(t)=\exp\left(\mu t+\frac{\sigma^2 t^2}2\right)</math>. |
|||
Dies entspricht in Aufgabenstellungen einer gesuchten [[Wahrscheinlichkeit]], bei der die Zufallsvariable <math> X </math> ''kleiner'' oder ''kleiner gleich'' einer bestimmten Zahl <math> x </math> ist. Durch die Verwendung der [[reelle Zahlen|reellen Zahlen]] und der [[Stetigkeit]] der Normalverteilung macht es keinen Unterschied ob nun <math> < </math> oder <math> \leq </math> verlangt ist, |
|||
Nach dem [[Moment (Stochastik)|stochastischen Moment]] 1. Ordnung, dem Erwartungswert, und dem [[zentrales Moment|zentralen Moment]] 2. Ordnung, der Varianz, ist die [[Schiefe (Statistik)|Schiefe]] das zentrale Moment 3. Ordnung. Es ist unabhängig von den Parametern <math>\mu</math> und <math>\sigma</math> immer den Wert <math>0</math>. Die [[Wölbung (Statistik)|Wölbung]] als zentrales Moment 4. Ordnung ist ebenfalls von <math>\mu</math> und <math>\sigma</math> unabhängig und ist gleich <math>3</math>. Um die Wölbungen anderer Verteilungen besser einschätzen zu können, werden sie oft mit der Wölbung der Normalverteilung verglichen. Dabei wird die Wölbung der Normalverteilung auf <math>0</math> normiert (Subtraktion von 3); diese Größe wird als [[Wölbung (Statistik)#Exzess|Exzess]] bezeichnet. |
|||
:weil <math> P(X = 3) = \int_3^3 f(x)dx = 0 </math> und somit <math> P(X<3) = P(X \leq 3) </math>. |
|||
Dasselbe gilt für ''größer'' und ''größer gleich''. |
|||
Die ersten Momente wie sind folgt: |
|||
Dadurch, dass <math> X </math> nur kleiner oder größer einer Grenze (oder innerhalb oder außerhalb zweier Grenzen) liegen kann, ergeben sich für Aufgaben bei normalverteilten Wahrscheinlichkeitsberechnungen folgende zwei grundlegende Fragestellungen: |
|||
{| class="wikitable zebra centered" style="text-align:right" |
|||
! align="right" | Ordnung |
|||
! [[Moment (Stochastik)|Moment]] |
|||
! [[Moment (Stochastik)#Zentrale Momente|zentrales Moment]] |
|||
|---- |
|||
! align="right" |<math>k</math> |
|||
! <math>\operatorname E(X^k)</math> |
|||
! <math>\operatorname E((X-\mu)^k)</math> |
|||
|---- align="right" |
|||
|- |
|||
| 0 || <math>1</math> || <math>1</math> |
|||
|- |
|||
| 1 || <math>\mu</math> || <math>0</math> |
|||
|- |
|||
| 2 || <math>\mu^2 + \sigma^2</math> || <math>\sigma^2</math> |
|||
|- |
|||
| 3 || <math>\mu^3 + 3\mu\sigma^2</math> || <math>0</math> |
|||
|- |
|||
| 4 || <math>\mu^4 + 6 \mu^2 \sigma^2 + 3 \sigma^4</math> || <math>3 \sigma^4</math> |
|||
|- |
|||
| 5 || <math>\mu^5 + 10 \mu^3 \sigma^2 + 15 \mu \sigma^4</math> || <math>0</math> |
|||
|- |
|||
| 6 || <math>\mu^6 + 15 \mu^4 \sigma^2 + 45 \mu^2 \sigma^4 + 15 \sigma^6 </math> || <math> 15 \sigma^6 </math> |
|||
|- |
|||
| 7 || <math>\mu^7 + 21 \mu^5 \sigma^2 + 105 \mu^3 \sigma^4 + 105 \mu \sigma^6 </math> || <math>0</math> |
|||
|- |
|||
| 8 || <math>\mu^8 + 28 \mu^6 \sigma^2 + 210 \mu^4 \sigma^4 + 420 \mu^2 \sigma^6 + 105 \sigma^8 </math> || <math> 105 \sigma^8 </math> |
|||
|} |
|||
Alle zentralen Momente <math>\mu_n</math> lassen sich durch die Standardabweichung <math>\sigma</math> darstellen: |
|||
: <math>\mu_{n}=\begin{cases} |
|||
* Wie hoch ist die Wahrscheinlichkeit, dass bei einem Zufallsversuch die normal verteilte Zufallsvariable <math> Z </math> <u>höchstens</u> den Wert <math> z </math> annimmt? |
|||
0 & \text{wenn }n\text{ ungerade}\\ |
|||
*:<math> P(Z \leq z)=\Phi(z) </math> |
|||
(n-1)!! \cdot \sigma^n & \text{wenn }n\text{ gerade}\end{cases}</math> |
|||
: In der [[Schulmathematik]] wird für diese Aussage auch die Bezeichnung '''''Linker Spitz''''' verwendet, da die [[Fläche]] unter der Gaußkurve von links bis zur Grenze verläuft. Für <math> z </math> sind auch negative Werte erlaubt, trotzdem haben viele Tabellen der Standardnormalverteilung nur positive Einträge. Durch die Symmetrie der Kurve und der '''Negativitätsregel''' des linken Spitz stellt dies aber keine Einschränkung dar: |
|||
{|align="right" |
|||
dabei wurde die [[Doppelfakultät]] verwendet: |
|||
|<small>(Anm.: Das Minus von <math> z </math> wird im folgenden explizit</small> |
|||
: <math>(n-1)!! = (n-1)\cdot(n-3)\cdot\ldots\cdot 3\cdot 1 \quad \mathrm{f\ddot ur}\; n \text{ gerade}.</math> |
|||
Auch für <math>X \sim \mathcal N(\mu,\sigma^2)</math> kann eine Formel für nicht-zentrale Momente angegeben werden. Dafür transformiert man <math>Z \sim \mathcal N(0,1)</math> und wendet den binomischen Lehrsatz an. |
|||
: <math>\operatorname E(X^k) = \operatorname E((\sigma Z + \mu)^k) = \sum_{j=0}^k {k \choose j} \operatorname E(Z^j) \sigma^j \mu^{k-j} = \sum_{i=0}^{\lfloor k/2 \rfloor} {k \choose 2i} \operatorname E(Z^{2i}) \sigma^{2i} \mu^{k-2i} = \sum_{i=0}^{\lfloor k/2 \rfloor} {k \choose 2i} (2i-1)!! \sigma^{2i} \mu^{k-2i}. </math> |
|||
Die [[Streuung (Statistik)#Mittlere absolute Abweichung|mittlere absolute Abweichung]] ist <math> \sqrt{\frac{2}{\pi}}\,\sigma \approx 0{,}80\sigma</math> und der [[Quantil (Wahrscheinlichkeitstheorie)#Quartil|Interquartilsabstand]] <math>\approx 1{,}349\sigma</math>. |
|||
=== Standardabweichung === |
|||
[[Datei:Standard deviation diagram.svg|mini|hochkant=1.4|Intervalle um <math alt="µ">\mu</math> bei der Normalverteilung]] |
|||
Aus der [[Standardnormalverteilungstabelle]] ist ersichtlich, dass für normalverteilte Zufallsvariablen jeweils ungefähr |
|||
: 68,3 % der [[Realisierung (Stochastik)|Realisierungen]] im [[Intervall (Mathematik)|Intervall]] <math alt="µ ± σ">\mu\pm\sigma</math>, |
|||
: 95,4 % im Intervall <math alt="µ ± 2σ">\mu\pm 2\sigma</math> und |
|||
: 99,7 % im Intervall <math alt="µ ± 3σ">\mu\pm 3\sigma</math> |
|||
liegen. Da in der Praxis viele Zufallsvariablen annähernd normalverteilt sind, werden diese Werte aus der Normalverteilung oft als Faustformel benutzt. So wird beispielsweise <math>\sigma</math> oft als die halbe Breite des Intervalls angenommen, das die mittleren zwei Drittel der Werte in einer Stichprobe umfasst. |
|||
Realisierungen außerhalb der zwei- bis dreifachen Standardabweichung gelten oft als verdächtig, [[Ausreißer]] zu sein. Sie können ein Hinweis auf grobe Fehler der [[Daten]]erfassung oder auch auf das Nichtvorhandensein einer Normalverteilung sein. Andererseits liegt bei einer Normalverteilung im Durchschnitt ca. jeder 20. Messwert außerhalb der zweifachen Standardabweichung und ca. jeder 370. Messwert außerhalb der dreifachen Standardabweichung, ohne dass es sich dabei um Ausreißer handelt. |
|||
[[Datei:Confidence interval by Standard deviation.svg|mini|Abhängigkeit der Wahrscheinlichkeit <math>P(-z \leq Z \leq z)</math> einer standardnormalverteilten Zufallsvariablen <math>Z</math> von <math>z \in[0,4]</math>]] |
|||
[[Datei:NormalverteilungAnteilAusserhalb.png|thumb|Abhängigkeit der Wahrscheinlichkeit <math>P(|Z| > z)</math> einer standardnormalverteilten Zufallsvariablen <math>Z</math> von <math>z \in[0,6]</math>]] |
|||
Die Wahrscheinlichkeit, dass eine normalverteilte Zufallsvariable <math>X \sim \mathcal{N}(\mu,\sigma^2)</math> einen Wert im Intervall <math>[\mu -z\sigma,\mu+z\sigma]</math> annimmt, ist genau so groß, wie die Wahrscheinlichkeit, dass ein standardnormalverteilte Zufallsvariable <math>Z</math> einen Wert im Intervall <math>[-z,z]</math> annimmt, es gilt also |
|||
:<math>p = P(X \in [\mu - z \sigma,\mu + z \sigma]) = P(Z \in [-z,z])</math>.<ref> Es gilt |
|||
:<math>P(\mu - z \sigma \leq X \leq \mu + z \sigma) = P\left(-z \leq \frac{X-\mu}{\sigma} \leq z\right) = P(-z \leq Z \leq z)\;.</math> |
|||
Die letzte Gleichung gilt, da die standardisierte Zufallsvariable <math>(X-\mu)/\sigma</math> standardnormalverteilt ist.</ref> |
|||
Damit können bestimmte Wahrscheinlichkeitsaussagen für Normalverteilungen mit beliebigen Parametern <math>\mu</math> und <math>\sigma^2</math> auf die Standardnormalverteilung zurückgeführt werden. |
|||
Die Wahrscheinlichkeit <math>p</math> kann alternativ durch die Verteilungsfunktion <math>\Phi</math> der Standardnormalverteilung oder durch die Fehlerfunktion <math>\operatorname{erf}</math> ausgedrückt werden: |
|||
:<math>p = 2 \Phi(z) - 1 = \operatorname{erf}(z/\sqrt 2).</math><ref>Es gilt |
|||
: <math>P(Z \in [-z,z]) =P(-z \leq Z \leq z ) = \int_{-z}^{+z}\varphi(t) \mathrm{d}t= \Phi(z) -\Phi(-z) = \Phi(z) - (1 - \Phi(z)) = 2 \Phi(z)-1\,.</math> |
|||
Das vorletzte Gleichheitszeichen gilt, da die Standardnormalverteilung symmetrisch zu Null ist.</ref> |
|||
Umgekehrt ist zu einer vorgegebenen Wahrscheinlichkeit <math>p \in (0,1)</math> die Stelle <math>z</math>, für |
|||
die <math>p = P(Z \in [- z,z])</math> gilt, durch |
|||
:<math>z = \Phi^{-1}\left(\frac{p+1}{2}\right) = \sqrt 2\cdot \operatorname{erf}^{-1}(p)</math> |
|||
gegeben. |
|||
{| class="wikitable" |
|||
|+ Wahrscheinlichkeiten für eine standardnormalverteilte Zufallsvariable <math>Z</math> |
|||
|- |
|- |
||
! <math>z</math> |
|||
|<small> ausgedrückt, d.h. <math> -z = -|z|</math>, wenn <math> z<0 </math>)</small> |
|||
! <math>P(Z \in [-z,z])</math> |
|||
! <math>P(Z \notin [-z,z])</math> |
|||
|- |
|||
| 0,674490 |
|||
| 50 % |
|||
| 50 % |
|||
|- |
|||
| 1 |
|||
| 68,268 9492 % |
|||
| 31,731 0508 % |
|||
|- |
|||
| 1,17741<br>(Halbwertsbreite) |
|||
|76,096 8106 % |
|||
|23,903 1891 % |
|||
|- |
|||
| 1,644854 |
|||
| 90 % |
|||
| 10 % |
|||
|- |
|||
| 2 |
|||
| 95,449 9736 % |
|||
| 4,550 0264 % |
|||
|- |
|||
| 2,575829 |
|||
| 99 % |
|||
| 1 % |
|||
|- |
|||
| 3 |
|||
| 99,730 0204 % |
|||
| 0,269 9796 % |
|||
|- |
|||
| 3,290527 |
|||
| 99,9 % |
|||
| 0,1 % |
|||
|- |
|||
| 3,890592 |
|||
| 99,99 % |
|||
| 0,01 % |
|||
|- |
|||
| 4 |
|||
| 99,993 666 % |
|||
| 0,006 334 % |
|||
|- |
|||
| 4,417173 |
|||
| 99,999 % |
|||
| 0,001 % |
|||
|- |
|||
| 4,891638 |
|||
| 99,9999 % |
|||
| 0,0001 % |
|||
|- |
|||
| 5 |
|||
| 99,999 942 6697 % |
|||
| 0,000 057 3303 % |
|||
|- |
|||
| 5,326724 |
|||
| 99,999 99 % |
|||
| 0,000 01 % |
|||
|- |
|||
| 5,730729 |
|||
| 99,999 999 % |
|||
| 0,000 001 % |
|||
|- |
|||
| 6 |
|||
| 99,999 999 8027 % |
|||
| 0,000 000 1973 % |
|||
|} |
|} |
||
::<math> \Phi(-z)=1-\Phi(z) </math> |
|||
=== Halbwertsbreite === |
|||
Der Wert der Dichtefunktion der Standardnormalverteilung fällt auf die Hälfte des Maximums, wenn <math>e^{-t^2/2} = \frac{1}{2}</math>, also bei <math>t = \sqrt{2 \ln 2} \approx 1{,}177</math>. Die [[Halbwertsbreite]] ist damit das <math>2 \sqrt{2 \ln 2} \approx 2{,}355</math>fache der Standardabweichung. |
|||
=== Variationskoeffizient === |
|||
* Wie hoch ist die Wahrscheinlichkeit, dass bei einem Zufallsversuch die normalverteilte Zufallsvariable <math> Z </math> <u>mindestens</u> den Wert <math> z </math> annimmt? |
|||
Aus Erwartungswert <math>\mu</math> und Standardabweichung <math>\sigma</math> der <math>\mathcal N(\mu,\sigma^2)</math>-Verteilung erhält man unmittelbar den [[Variationskoeffizient]]en |
|||
::<math> P(Z \geq z) = 1 - \Phi(z) </math> |
|||
: <math>\operatorname{VarK} = \frac{\sigma}{\mu}.</math> |
|||
:Analog wird hier oft die Bezeichnung '''''Rechter Spitz''''' verwendet. Ebenso gibt es eine Negativitätsregel: |
|||
::<math> P(Z \geq -z)= 1- \Phi(-z)= 1-(1-\Phi(z)) = \Phi(z) </math> |
|||
=== Kumulanten === |
|||
(Da jede Zufallsvariable <math> X </math> der allgemeinen Normalverteilung sich in die Zufallsgröße <math> Z </math> der Standardnormalverteilung umwandeln lässt, gelten die Fragestellungen für beide Größen gleichbedeutend) |
|||
Die [[kumulantenerzeugende Funktion]] ist |
|||
: <math>g_X(t)= \mu t+\frac{\sigma^2 t^2}2 </math> |
|||
Damit ist die erste [[Kumulante]] <math> \kappa_1=\mu </math>, die zweite ist <math> \kappa_2=\sigma^2 </math> und alle weiteren Kumulanten verschwinden. |
|||
===Streubereich und Antistreubereich=== |
|||
=== Charakteristische Funktion === |
|||
Der ''Streubereich'' gibt die Wahrscheinlichkeit wieder, dass die normalverteilte Zufallsvariable <math> Z </math> Werte zwischen <math> z_1 </math> und <math> z_2 </math> annimmt: |
|||
Die [[Charakteristische Funktion (Stochastik)|charakteristische Funktion]] für eine standardnormalverteilte Zufallsvariable <math>Z \sim \mathcal N(0,1)</math> ist |
|||
:<math> P(z_1 \leq Z \leq z_2) = \Phi(z_2) - \Phi(z_1) </math> |
|||
: <math>\psi_Z(t) = e^{-\frac 12 t^2}</math>. |
|||
Für eine Zufallsvariable <math>X \sim \mathcal N(\mu, \sigma^2)</math> erhält man daraus mit <math>X = \sigma Z + \mu</math>: |
|||
:<math> P(-z \leq Z \leq z ) = P (|Z| \leq z) = </math> |
|||
::<math> = \Phi(z)-\Phi(-z) =\Phi(z)-(1-\Phi(z))=</math> |
|||
::<math> =2 \cdot \Phi(z)-1 </math> |
|||
: <math>\psi_X(t)=\operatorname E(e^{it(\sigma Z + \mu)})=\operatorname E(e^{it\sigma Z}e^{it\mu})= e^{it\mu}\operatorname{E}(e^{it\sigma Z})=e^{it\mu}\psi_Z(\sigma t)= \exp\left(it\mu-\tfrac 12 \sigma^2 t^2\right)</math>. |
|||
Hingegen gibt der ''Antistreubereich'' die Höhe der Wahrscheinlichkeit an, dass die normalverteilte Zufallsvariable <math> Z </math> Werte außerhalb des Bereichs zwischen <math> z_1 </math> und <math> z_2 </math> annimmt: |
|||
:<math> P(Z \leq z_1) \mbox{ und } P(Z \geq z_2) = \Phi(z_1) + (1-\Phi(z_2)) </math> |
|||
=== Invarianz gegenüber Faltung === |
|||
Somit folgt bei einem symmetrischen Antistreubereich: |
|||
Die Normalverteilung ist [[Invariante (Mathematik)|invariant]] gegenüber der [[Faltung (Stochastik)|Faltung]], d. h., die Summe unabhängiger normalverteilter Zufallsvariablen ist wieder normalverteilt (siehe dazu auch unter [[Alpha-stabile Verteilungen|stabile Verteilungen]] bzw. unter [[Unendliche Teilbarkeit|unendliche teilbare Verteilungen]]). Somit bildet die Normalverteilung eine [[Faltungshalbgruppe]] in ihren beiden Parametern. Eine veranschaulichende Formulierung dieses Sachverhaltes lautet: Die Faltung einer Gaußkurve der Standardabweichung <math>\sigma_a</math> mit einer Gaußkurve der Standardabweichung <math>\sigma_b</math> ergibt wieder eine Gaußkurve mit der Standardabweichung |
|||
:<math> P(Z \leq -z) \mbox{ und } P(Z \geq z) = P(|Z| \geq z)= </math> |
|||
: |
: <math>\sigma_c = \sqrt{\sigma_a^2 + \sigma_b^2}</math>. |
||
Sind also <math>X, Y</math> zwei unabhängige Zufallsvariablen mit |
|||
::<math> =2-2\cdot \Phi(z) </math> |
|||
: <math>X \sim \mathcal N(\mu_X,\sigma_X^2),\ Y \sim \mathcal N(\mu_Y,\sigma_Y^2),</math> |
|||
so ist deren Summe ebenfalls normalverteilt: |
|||
: <math>X+Y \sim \mathcal N(\mu_X+\mu_Y,\sigma_X^2+\sigma_Y^2)</math>. |
|||
Das kann beispielsweise mit Hilfe von charakteristischen Funktionen gezeigt werden, indem man verwendet, dass die charakteristische Funktion der Summe das Produkt der charakteristischen Funktionen der Summanden ist (vgl. [[Faltungssatz]] der Fouriertransformation). |
|||
===Streubereiche am Beispiel der Qualitätssicherung=== |
|||
Besondere Bedeutung haben beide Streubereiche z.B. bei der [[Qualitätssicherung]] von technischen oder wirtschaftlichen [[Produktion|Produktionsprozessen]]. Hier gibt es einzuhaltende [[Toleranz (Technik)|Toleranzgrenzen]] <math> x_1 </math> und <math> x_2 </math> , wobei es meist einen größten noch akzeptablen Abstand <math> \epsilon </math> vom Erwartungswert <math> \mu </math> (= dem optimalen Sollwert) gibt. <math> \sigma </math> kann hingegen [[empirisch]] aus dem Produktionsprozess gewonnen werden. |
|||
Damit ist jede [[Linearkombination]] wieder normalverteilt. Nach dem [[Satz von Cramér (Normalverteilung)|Satz von Cramér]] gilt sogar die Umkehrung: Ist eine normalverteilte Zufallsvariable die Summe von unabhängigen Zufallsvariablen, dann sind die Summanden ebenfalls normalverteilt. Man spricht davon, dass die Normalverteilung reproduktiv ist bzw. die [[Reproduktivitätseigenschaft]] besitzt. |
|||
Wurde <math> [x_1;x_2]=[\mu-\epsilon;\mu+\epsilon] </math> als einzuhaltendes Toleranzintervall angegeben, so liegt (je nach Fragestellung) ein symmetrischer Streu- oder Antistreubereich vor. |
|||
Die Dichtefunktion der Normalverteilung ist ein [[Fixpunkt (Mathematik)|Fixpunkt]] der [[Fourier-Transformation]], d. h., die Fourier-Transformierte einer Gaußkurve ist wieder eine Gaußkurve. Das Produkt der [[Varianz (Stochastik)|Standardabweichungen]] dieser korrespondierenden Gaußkurven ist konstant; es gilt die [[Heisenbergsche Unschärferelation]]. |
|||
Im Falle des Streubereiches gilt: |
|||
:<math> P(x_1 \leq X \leq x_2) = P(|X-\mu|\leq\epsilon)= </math> |
|||
::<math>=P(\mu-\epsilon \leq X \leq \mu+\epsilon) = P\left(\frac{-\epsilon}{\sigma} \leq Z \leq \frac{\epsilon}{\sigma}\right)= </math> |
|||
::<math>=\Phi\left(\frac{\epsilon}{\sigma}\right)-\Phi\left(\frac{-\epsilon}{\sigma}\right)= </math> |
|||
::<math>= 2 \cdot \Phi\left(\frac{\epsilon}{\sigma}\right)-1 =\gamma</math> |
|||
=== Entropie === |
|||
Der Antistreubereich ergibt sich dann aus |
|||
Eine normalverteilte Zufallsvariable hat die [[Shannon-Entropie]] <math>\log_2\left(\sigma\sqrt{2\,\pi\,e}\right)</math>.<ref>{{Literatur |Autor=Horst Rinne |Titel=Taschenbuch der Statistik |Datum=2008 |Fundstelle=S. 302}}</ref><ref>{{Literatur |Titel=Statistical Distributions |Hrsg=Catherine Forbes et al. | Datum=2011 |Fundstelle=S. 144}}</ref> |
|||
:<math> P(|X-\mu|\geq \epsilon )= 1-\gamma </math> |
|||
Sie hat für gegebenen Erwartungswert und gegebene Varianz die größte Entropie unter allen stetigen Verteilungen.<ref>{{Literatur |Herausgeber=[[P. Heinz Müller|P. H. Müller]] |Titel=Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik |Verlag=Akademie-Verlag |Ort=Berlin |Datum=1991 |Auflage= 5 |ISBN=978-3-05-500608-1 |Fundstelle =''Entropie einer Zufallsgröße'', S. 86}}</ref> |
|||
oder wenn kein Streubereich berechnet wurde durch |
|||
:<math> P(|X-\mu|\geq \epsilon )=2\cdot\left(1-\Phi\left(\frac{\epsilon} {\sigma}\right)\right)=\alpha </math> . |
|||
== Anwendung == |
|||
Das Ergebnis <math> \gamma </math> ist also die Wahrscheinlichkeit für verkaufbare Produkte, während <math> \alpha </math> die Wahrscheinlichkeit für Ausschuss bedeutet, wobei beides von den Vorgaben von <math> \mu </math>, <math> \sigma </math> und <math> \epsilon </math> abhängig ist. |
|||
=== Beispiel zur Standardabweichung === |
|||
Ist bekannt, dass die maximale Abweichung <math> \epsilon </math> symmetrisch um den Erwartungswert liegt, so sind auch Fragestellungen möglich, bei denen die Wahrscheinlichkeit vorgegeben und eine der anderen Größen zu berechnen ist. |
|||
Die [[Körpergröße]] des Menschen ist näherungsweise normalverteilt. Bei einer Stichprobe von 1.284 Mädchen und 1.063 Jungen zwischen 14 und 18 Jahren wurde bei den Mädchen eine durchschnittliche Körpergröße von 166,3 cm (Standardabweichung 6,39 cm) und bei den Jungen eine durchschnittliche Körpergröße von 176,8 cm (Standardabweichung 7,46 cm) gemessen.<ref>Mareke Arends: ''Epidemiologie bulimischer Symptomatik unter 10-Klässlern in der Stadt Halle.'' Dissertation. Martin-Luther-Universität Halle-Wittenberg, 2005, Tabelle 9, S. 30. {{URN|nbn:de:gbv:3-000008151}}</ref> |
|||
Demnach lässt obige Schwankungsbreite erwarten, dass 68,3 % der Mädchen eine Körpergröße im Bereich 166,3 cm ± 6,39 cm und 95,4 % im Bereich 166,3 cm ± 12,8 cm haben, also |
|||
== Testen auf Normalverteilung == |
|||
* 16 % [≈ (100 % − 68,3 %)/2] der Mädchen kleiner als 160 cm (und 16 % entsprechend größer als 173 cm) sind und |
|||
Um zu testen, ob vorliegende Daten normalverteilt sind, können unter Anderem der [[Kolmogorov-Smirnov-Test]] und der [[Shapiro-Wilk-Test]] herangezogen werden. Mit Hilfe von [[Normal-Quantil-Plot]]s (auch Quantil-Quantil-Plot oder Q-Q-Plot) ist eine einfache grafische Überprüfung auf Normalverteilung möglich. |
|||
* 2,5 % [≈ (100 % − 95,4 %)/2] der Mädchen kleiner als 154 cm (und 2,5 % entsprechend größer als 179 cm) sind. |
|||
Für die Jungen lässt sich erwarten, dass 68,3 % eine Körpergröße im Bereich 176,8 cm ± 7,46 cm und 95,4 % im Bereich 176,8 cm ± 14,92 cm haben, also |
|||
==Approximation der Binomialverteilung durch die Normalverteilung== |
|||
* 16 % der Jungen kleiner als 169 cm (und 16 % größer als 184 cm) und |
|||
* 2,5 % der Jungen kleiner als 162 cm (und 2,5 % größer als 192 cm) sind. |
|||
=== Kontaminierte Normalverteilung === |
|||
===Allgemeines=== |
|||
[[Datei:Kontaminierte Normalverteilung.svg|mini|Normalverteilung (a) und kontaminierte Normalverteilung (b)]] |
|||
Um 1900 [[Postulat|postulierte]] [[Max Planck]] das [[Quant|Energiequantum]] <math> h\nu </math>, um die [[Schwarzer Körper|Energieverteilung]] der [[Schwarzer Strahler|schwarzen Strahlung]] erklären zu können und es wurde daraufhin in vielen anderen [[Erscheinung|Erscheinungen]] der Natur wiederentdeckt. Der bis dahin geltende Satz '[[natura non facit saltus]]' - die Natur macht keine Sprünge - wurde wirksam widerlegt und zeigt auch, dass viele Phänomene, die oberflächlich für stetig gehalten werden, bei sehr genauer Betrachtung doch nichtstetig bzw. sprunghaft sind. |
|||
{{Hauptartikel|Kontaminierte Normalverteilung}} |
|||
Die Normalverteilung liefert für diese Vorgänge eine sehr gute Approximation, denn viele endliche Zufallsvariablen sind näherungsweise normalverteilt. Eine in der Natur oft anzutreffende Wahrscheinlichkeitsverteilung ist die [[Binomialverteilung]]. Auch sie lässt sich in sehr guter Näherung mit der Normalverteilung beschreiben. Mathematisch wird dies durch den [[Limes (Mathematik)| Grenzwertsatz]] belegt. Er besagt in diesem Fall, dass sich die nichtstetige Wahrscheinlichkeitsverteilung, die sich aus <math> n </math> voneinander unabhängigen Zufallsgrößen ergibt, mit steigenden <math> n </math> immer besser an die Normalverteilung angleicht. <math> n </math> ist dabei die Anzahl der voneinander unabhängigen [[Binomialverteilung|Zufallsversuche]], von denen jeder einzelne eine Zufallsgröße ergibt. |
|||
Von der Verteilung |
|||
Ein Beispiel für diese Angleichung der Häufigkeitsverteilung an die Normalverteilung ist folgender Würfelversuch: |
|||
: <math>P = 0{,}9\cdot\mathcal{N}(\mu,\sigma^2)+0{,}1\cdot\mathcal{N}(\mu,(10\sigma)^2)</math> |
|||
Gegeben seien zwei normale Würfel, wobei jeder eine Augenzahl von eins bis sechs aufweist. Sie sollen nun <math> n </math> mal geworfen werden, d. h. es werden <math> n </math> voneinander unabhängige Zufallsversuche durchgeführt. Bei jedem Versuch berechnet sich das Ergebnis aus der Gesamtanzahl der geworfenen Augen. Insgesamt werden einige hundert Würfe gemacht, wobei die Anzahl der gleichen Ergebnisse gezählt wird. Diese Häufigkeit kann anschließend in ein [[Diagramm]] eingetragen werden. Die resultierende Verteilung ist bei sehr wenigen Würfen rein zufällig, bei sehr hohen <math> n </math> wird sie hingegen der Gauß'schen Glockenkurve (mit dem Erwartungswert von 7) immer ähnlicher, trotzdem ist sie immer noch [[diskret]] verteilt (d. h. der Graph besteht aus kleinen Stufen). |
|||
ist die Standardabweichung <math>\overline\sigma</math>. Die Verteilung ist optisch kaum von der Normalverteilung zu unterscheiden (siehe Bild), aber bei ihr liegen im Intervall <math>\mu\pm\overline\sigma</math> 92,5 % der Werte. Solche kontaminierten Normalverteilungen sind in der Praxis häufig; das genannte Beispiel beschreibt die Situation, wenn zehn Präzisionsmaschinen etwas herstellen, aber eine davon schlecht justiert ist und mit zehnmal so hohen Abweichungen wie die anderen neun produziert. |
|||
=== |
=== Gestutzte Normalverteilung === |
||
{{Hauptartikel|Stutzung#Gestutzte_Normalverteilung}} |
|||
Ist eine [[Binomialverteilung]] (siehe auch [[Bernoulli-Versuch]]) mit <math> n </math> voneinander unabhängigen Stufen (bzw. Zufallsversuchen) mit einer Erfolgswahrscheinlichkeit <math> p </math> gegeben, so lässt sich die Wahrscheinlichkeit für <math>k</math> Erfolge allgemein durch <math> P(X=k)= {n \choose k} \cdot p^k\cdot q^{n-k} </math> für <math> k=0,1,\dots,n </math> berechnen (wobei <math> q=1-p </math> ist). |
|||
Bei der gestutzten Normalverteilung ist die Wahrscheinlichkeitsdichte <math>f</math> außerhalb eines Intervalls <math>[a,b]</math> mit <math>a,b\in\R</math> gleich Null. Entsprechend erhöht sich <math>f</math> in dem Intervall, so dass das Integral <math>\int_a^bf=1</math> bleibt. |
|||
=== Six Sigma === |
|||
Für sehr große Werte von <math> n </math> kann diese Binomialverteilung durch eine Normalverteilung approximiert werden ([[zentraler Grenzwertsatz]]). Dabei ist |
|||
{{Hauptartikel|Six Sigma}} |
|||
*der Erwartungswert <math> \mu=n\cdot p </math> |
|||
Da der Anteil der Werte außerhalb der sechsfachen Standardabweichung mit ca. 2 [[Parts per billion|ppb]] verschwindend klein wird, gilt ein solches Intervall als gutes Maß für eine nahezu vollständige Abdeckung aller Werte. Das wird im Qualitätsmanagement durch die Methode [[Six Sigma]] genutzt, indem die Prozessanforderungen Toleranzgrenzen von mindestens <math>6\sigma</math> vorschreiben. Allerdings geht man dort von einer langfristigen Erwartungswertverschiebung um 1,5 Standardabweichungen aus, sodass der zulässige Fehleranteil auf 3,4 [[Parts per million|ppm]] steigt. Dieser Fehleranteil entspricht einer viereinhalbfachen Standardabweichung (<math>4{,}5\ \sigma</math>). Ein weiteres Problem der <math>6\sigma</math>-Methode ist, dass die <math>6\sigma</math>-Punkte praktisch nicht bestimmbar sind. Bei unbekannter Verteilung (d. h., wenn es sich nicht ''ganz sicher'' um eine Normalverteilung handelt) grenzen zum Beispiel die Extremwerte von 1.400.000.000 Messungen ein 75-%-[[Konfidenzintervall]] für die <math>6\sigma</math>-Punkte ein.<ref>H. Schmid, A. Huber: [http://schmid-werren.ch/hanspeter/publications/2014sscm.pdf ''Measuring a Small Number of Samples and the 3σ Fallacy.''] (PDF; 1,6 MB) In: ''IEEE Solid-State Circuits Magazine'', Band 6, Nr. 2, 2014, S. 52–58, [[doi:10.1109/MSSC.2014.2313714]].</ref> |
|||
*und die Standardabweichung <math> \sigma=\sqrt{n\cdot p \cdot q } </math> |
|||
== Beziehungen zu anderen Verteilungsfunktionen == |
|||
Ist nun <math>\sigma > 3</math>, dann ist folgende Näherung brauchbar: |
|||
=== Normalverteilung als Grenzverteilung der Binomialverteilung === |
|||
Die [[Binomialverteilung]] ist eine diskrete Verteilung, die sich aus einer Anzahl an Versuchen <math>n</math> ergibt. Jeder einzelne Versuch hat die Wahrscheinlichkeit eines Erfolges <math>p</math>. Die Binomialverteilung <math>B(k \mid p,n)</math> gibt dann die Wahrscheinlichkeit an, dass die <math>n</math> Versuche genau <math>k</math>-mal ein Erfolg war, mit <math>0\leq k\leq n</math>. |
|||
Durch einen Grenzübergang für <math>n \to \infty</math> ergeben sich die Dichtefunktion einer Normalverteilung aus der [[Wahrscheinlichkeitsfunktion]] der Binomialverteilung ([[Satz von Moivre-Laplace|lokaler Grenzwertsatz von Moivre-Laplace]]) und die Verteilungsfunktion einer Normalverteilung aus der Verteilungsfunktion der Binomialverteilung ([[Satz von Moivre-Laplace|globaler Grenzwertsatz von Moivre-Laplace]]). Dies ist eine Rechtfertigung dafür, die Binomialverteilung mit den Parametern <math>n</math> und <math>p</math> für hinreichend große <math>n</math> durch die Normalverteilung <math>\mathcal{N}(np, np(1-p))</math> zu approximieren. |
|||
:<math> P(x_1 \leq X \leq x_2) = \underbrace{\sum_{k=x_1}^{x_2} {n \choose k} \cdot p^k\cdot q^{n-k}}_{\mathrm{BV}} \approx \underbrace{\Phi\left(\frac{x_2+0,5-\mu}{\sigma}\right) -\Phi\left(\frac{x_1-0,5-\mu}{\sigma}\right)}_{\mathrm{NV}} </math> |
|||
=== Approximation der Binomialverteilung durch die Normalverteilung === |
|||
Bei der Normalverteilung wird die untere Grenze um 0,5 verkleinert und die obere Grenze um 0,5 vergrößert, um eine bessere Approximation bei einer geringen Standardabweichung <math> \sigma </math> gewährleisten zu können. Dies nennt man auch ''Stetigkeitskorrektur''. Nur wenn <math> \sigma </math> einen sehr hohen Wert besitzt, kann auf sie verzichtet werden. |
|||
{{Hauptartikel|Normal-Approximation}} |
|||
Die Normalverteilung kann zur Approximation der [[Binomialverteilung]] verwendet werden, wenn der Stichprobenumfang hinreichend groß und in der [[Grundgesamtheit]] der Anteil der gesuchten Eigenschaft weder zu groß noch zu klein ist ([[Satz von Moivre-Laplace]], [[zentraler Grenzwertsatz]], zur experimentellen Bestätigung siehe auch unter [[Galtonbrett]]). |
|||
Ist ein Bernoulli-Versuch mit <math>n</math> voneinander unabhängigen Stufen (bzw. [[Zufallsexperiment]]en) mit einer Erfolgswahrscheinlichkeit <math>p</math> gegeben, so lässt sich die Wahrscheinlichkeit für <math>k</math> Erfolge allgemein durch <math>P(X=k) = \tbinom{n}{k} \cdot p^k \cdot (1-p)^{n-k},\quad k = 0, 1, \dotsc, n</math> berechnen ([[Binomialverteilung]]). |
|||
Da die Binomialverteilung diskret ist, muss auf einige Punkte geachtet werden: |
|||
* <math> < </math> oder <math> \leq </math> (und auch ''größer'' und ''größer gleich'') müssen beachtet werden (was ja bei der Normalverteilung nicht der Fall ist). Deshalb muss bei <math> P(X_{BV}<x) </math> die nächstkleinere natürliche Zahl gewählt werden, d. h. |
|||
::<math> P(X_{BV}<x)=P(X_{BV}\leq x-1) </math> bzw. <math> P(X_{BV}>x)=P(X_{BV}\geq x+1) </math> |
|||
:damit mit der Normalverteilung weitergerechnet werden kann. |
|||
:z. B. <math> P(X_{BV}<70)=P(X_{BV}\leq 69) </math> |
|||
Diese Binomialverteilung kann durch eine Normalverteilung approximiert werden, wenn <math>n</math> hinreichend groß und <math>p</math> weder zu groß noch zu klein ist. Als Faustregel dafür gilt <math>np(1-p)\geq 9</math>. Für den Erwartungswert <math>\mu</math> und die Standardabweichung <math>\sigma</math> gilt dann: |
|||
*Außerdem ist |
|||
: |
: <math>\mu=n\cdot p </math> und <math>\sigma=\sqrt{n \cdot p \cdot (1-p)}</math>. |
||
Damit gilt für die Standardabweichung <math>\sigma\geq 3</math>. |
|||
::<math> P(X_{BV} \geq x) = P(x \leq X_{BV} \leq n) </math> |
|||
::<math> P(X_{BV} = x) = P(x \leq X_{BV} \leq x) </math> (unbedingt mit Stetigkeitskorrektur) |
|||
:und lässt sich somit durch die oben angegebene Formel berechnen. |
|||
Falls diese Bedingung nicht erfüllt sein sollte, ist die Ungenauigkeit der Näherung immer noch vertretbar, wenn gilt: <math>np\geq 4</math> und zugleich <math>n(1-p)\geq 4</math>. |
|||
Der große Vorteil der Approximation liegt darin, dass sehr viele Stufen einer Binomialverteilung sehr schnell und einfach bestimmt werden können. |
|||
Folgende Näherung ist dann brauchbar: |
|||
== Simulation normalverteilter Zufallsvariablen == |
|||
=== Box-Muller-Methode === |
|||
Nach der [[Box-Muller-Methode]] lässt sich eine standardnormalverteilte Zufallsvariable <math>X</math> aus zwei [[Gleichverteilung|gleichverteilten]] Zufallsvariablen <math>u_1,u_2 \sim U(0,1)</math>, sogenannten [[Standardzufallszahl]]en, simulieren: |
|||
: <math>\begin{align} |
|||
:<math>X=\sqrt{(-2\log u_1)}\;\cos(2\pi u_2)</math> |
|||
P(x_1 \leq X \leq x_2) &= \underbrace{\sum_{k=x_1}^{x_2} {n \choose k} \cdot p^k\cdot (1-p)^{n-k}}_{\mathrm{BV}}\\ |
|||
&\approx \underbrace{\Phi\left(\frac{x_2+0{,}5-\mu}{\sigma}\right) -\Phi\left(\frac{x_1-0{,}5-\mu}{\sigma}\right)}_{\mathrm{NV}}. |
|||
\end{align}</math> |
|||
Bei der Normalverteilung wird die untere Grenze um 0,5 verkleinert und die obere Grenze um 0,5 vergrößert, um eine bessere Approximation gewährleisten zu können. Dies nennt man auch „Stetigkeitskorrektur“. Nur wenn <math>\sigma</math> einen sehr hohen Wert besitzt, kann auf sie verzichtet werden. |
|||
=== Polar-Methode === |
|||
Die [[Polar-Methode]] von [[George Marsaglia|Marsaglia]] ist auf einem Computer noch schneller, da sie nur einen Logarithmus benutzt: |
|||
Da die Binomialverteilung diskret ist, muss auf einige Punkte beim Rechnen mit einer binomialverteilten Zufallsvariablen <math>X</math> geachtet werden: |
|||
#Generiere zwei gleichverteilte Zufallsvariablen <math>u_1,u_2=U(0,1)</math> |
|||
* Der Unterschied zwischen <math><</math> oder <math>\leq</math> (sowie zwischen ''größer'' und ''größer gleich'') muss beachtet werden (was ja bei der Normalverteilung nicht der Fall ist). Deshalb muss bei <math>P(X<x)</math> die nächstkleinere [[natürliche Zahl]] gewählt werden, d. h. |
|||
#Berechne <math>v=(2u_1-1)^2+(2u_2-1)^2</math>. Falls <math>v \ge 1</math> wiederhole 1. |
|||
:: <math>P(X<x)=P(X\leq x-1)</math> bzw. <math>P(X >x)=P(X\geq x+1)</math>, |
|||
: damit mit der Normalverteilung weitergerechnet werden kann. |
|||
: Zum Beispiel: <math>P(X<70) = P(X\leq 69)</math> |
|||
* Außerdem ist |
|||
Durch lineare Transformation lassen sich hieraus auch beliebige normalverteilte Zufallszahlen generieren: Ist die Zufallsvariable <math>X \sim \mathcal{N}(0,1)</math>-verteilt, so ist aX+b schließlich <math>\mathcal{N}(b,a^2)</math>-verteilt. |
|||
:: <math> P(X \leq x) = P(0 \leq X \leq x) </math> |
|||
:: <math> P(X \geq x) = P(x \leq X \leq n) </math> |
|||
:: <math> P(X = x) = P(x \leq X \leq x) </math> (unbedingt mit Stetigkeitskorrektur) |
|||
: und lässt sich somit durch die oben angegebene Formel berechnen. |
|||
Der große Vorteil der Approximation liegt darin, dass sehr viele Stufen einer Binomialverteilung sehr schnell und einfach bestimmt werden können. |
|||
=== Zwölferregel === |
|||
Der [[Zentraler Grenzwertsatz|zentrale Grenzwertsatz]] besagt, dass sich die Verteilung der Summe unabhängiger identisch verteilter Zufallszahlen einer Normalverteilung nähert. |
|||
=== Beziehung zur Cauchy-Verteilung === |
|||
Ein Spezialfall ist die [[Zwölferregel]], die sich auf die Summe von 12 Zufallszahlen aus einer Gleichverteilung auf dem Intervall [0,1] beschränkt und bereits zu passablen Verteilungen führt. |
|||
Der [[Quotient]] von zwei stochastisch unabhängigen <math>\mathcal{N}(0,1)</math>-standardnormalverteilten Zufallsvariablen ist [[Cauchy-Verteilung|Cauchy-verteilt]]. |
|||
=== Beziehung zur Chi-Quadrat-Verteilung === |
|||
Stark ins Gewicht fällt die Forderung der Unabhängigkeit der zwölf <math>X_i</math>, die von normalen Pseudozufallszahlen (LKG) '''nicht''' garantiert wird. Im Gegenteil wird vom Spektraltest meist nur die Unabhängigkeit von maximal vier bis sieben der <math>X_i</math> garantiert. Für numerische Simulationen ist die Zwölferregel daher '''sehr bedenklich'''! Andere genauso leicht zu programmierende Verfahren sind unbedingt vorzuziehen! |
|||
Das [[Quadrat (Mathematik)|Quadrat]] einer standardnormalverteilten Zufallsvariablen hat eine [[Chi-Quadrat-Verteilung]] mit einem [[Anzahl der Freiheitsgrade (Statistik)|Freiheitsgrad]]. Also: Wenn <math>Z\sim\mathcal{N}(0,1)</math>, dann <math>Z^2\sim\chi^2(1)</math>. Weiterhin gilt: Wenn <math>\chi^2(r_1), \chi^2(r_2), \dotsc, \chi^2(r_n)</math> gemeinsam [[Stochastisch unabhängige Zufallsvariablen|stochastisch unabhängige]] Chi-Quadrat-verteilte Zufallsvariablen sind, dann gilt |
|||
: <math>Y=\chi^2(r_1)+\chi^2(r_2)+\dotsb+\chi^2(r_n)\sim\chi^2(r_1+\dotsb+r_n)</math>. |
|||
===Verwerfungsmethode=== |
|||
Daraus folgt mit unabhängig und standardnormalverteilten Zufallsvariablen <math>Z_1,Z_2,\dotsc,Z_n</math>:<ref>George G. Judge, R. Carter Hill, W. Griffiths, [[Helmut Lütkepohl]], T. C. Lee: ''Introduction to the Theory and Practice of Econometrics.'' 1988, S. 49.</ref> |
|||
Normalverteilungen lassen sich mit der [[Verwerfungsmethode]] (s. dort) simulieren. |
|||
: <math>Y=Z_1^2+\dotsb+Z_n^2\sim\chi^2(n)</math> |
|||
Weitere Beziehungen sind: |
|||
===Inversionsmethode=== |
|||
* Die Summe <math>X_{n-1}=\frac{1}{\sigma^{2}}\sum_{i=1}^{n} (Z_{i}-\overline Z)^{2}</math> mit <math>\overline Z:=\frac{1}{n}\sum_{i=1}^{n} Z_i</math> und <math>n</math> unabhängigen normalverteilten Zufallsvariablen <math>Z_i\sim \mathcal{N}(\mu,\sigma^{2}), \;i=1, \dotsc, n</math> genügt einer Chi-Quadrat-Verteilung <math>X_{n-1}\sim\chi^2_{n-1}</math> mit <math>(n-1)</math> Freiheitsgraden. |
|||
Selbstverständlich lässt sich die Normalverteilung auch mit der [[Inversionsmethode]] berechnen. Da das [[Fehlerfunktion|Fehlerintegral]] leider nicht explizit mit elementaren Funktionen integrierbar ist, muss man auf Reihenentwicklungen der inversen Funktion für einen Startwert (<math>a_1 ... a_{14}</math> weiter unten) und anschließende Korrektur mit dem Newtonverfahren zurückgreifen. Dazu werden erf(x) und erfc(x) benötigt, die ihrerseits mit Reihenentwicklungen und Kettenbruchentwicklungen berechnet werden können - insgesamt ein relativ hoher Aufwand. Die notwendigen Entwicklungen sind in der Literatur zu finden. (William B. Jones, W. J. Thron: Continued Fractions 1980, Addison Wesley). |
|||
* Mit steigender [[Anzahl der Freiheitsgrade (Statistik)|Anzahl an Freiheitsgraden]] (''df'' ≫ 100) nähert sich die Chi-Quadrat-Verteilung der Normalverteilung an. |
|||
Entwicklung des inversen Fehlerintegrals (wegen des Pols nur als Startwert für das Newtonverfahren verwendbar): |
|||
* Die Chi-Quadrat-Verteilung wird zur [[Konfidenzintervall|Konfidenzschätzung]] für die Varianz einer normalverteilten Grundgesamtheit verwendet. |
|||
:<math>\operatorname{erf}^{-1} (\frac{\sqrt\pi}{2}x) = x(a_1 + x^2 (a_2 + x^2 (\dots)))</math> |
|||
=== Beziehung zur Rayleigh-Verteilung === |
|||
mit den Koeffizienten |
|||
Der Betrag <math>Z = \sqrt{X^2 + Y^2}</math> zweier unabhängiger normalverteilter Zufallsvariablen <math>X, Y</math>, jeweils mit Mittelwert <math>\mu_X = \mu_Y = 0</math> und gleichen Varianzen <math>\sigma_X^2 = \sigma_Y^2 = \sigma^2</math>, ist [[Rayleigh-Verteilung|Rayleigh-verteilt]] mit Parameter <math>\sigma > 0</math>. |
|||
=== Beziehung zur logarithmischen Normalverteilung === |
|||
:<math>a_i= 1, |
|||
Ist die Zufallsvariable <math>X</math> normalverteilt mit <math>\mathcal{N}(\mu,\sigma^{2})</math>, dann ist die Zufallsvariable <math>Y=e^{X}</math> [[Logarithmische Normalverteilung|logarithmisch-normalverteilt]], also <math>Y \sim \mathcal{LN}(\mu,\sigma^{2})</math>. |
|||
{1\over 3}, |
|||
{7\over 30}, |
|||
{127\over 630}, |
|||
{4369\over 22680}, |
|||
{34807\over 178200}, |
|||
{20036983\over 97297200}, |
|||
{2280356863\over 10216206000}, |
|||
{49020204823\over 198486288000}, |
|||
</math> |
|||
Die Entstehung einer [[Logarithmische Normalverteilung|logarithmischen Normalverteilung]] ist auf multiplikatives, die einer Normalverteilung auf additives Zusammenwirken vieler Zufallsvariablen zurückführen. |
|||
=== Beziehung zur F-Verteilung === |
|||
::<math> |
|||
Wenn die stochastisch unabhängigen und normalverteilten Zufallsvariablen <math>X_1^{(1)}, X_2^{(1)}, \dotsc, X_{n_1}^{(1)}</math> und <math>X_1^{(2)}, X_2^{(2)}, \dotsc, X_{n_2}^{(2)}</math> die Parameter |
|||
{65967241200001\over 237588086736000}, |
|||
: <math>\operatorname E(X_{i}^{(1)})=\mu_{1},\quad\operatorname{Var}(X_{i}^{(1)})=\sigma^2_{1}\quad\text{für }i=1,\dots,n_1 </math> |
|||
{15773461423793767\over 49893498214560000}, |
|||
und |
|||
{655889589032992201\over 1803293578326240000}, |
|||
: <math>\operatorname E(X_{i}^{(2)})=\mu_{2},\quad\operatorname{Var}(X_{i}^{(2)})=\sigma_{2}^2 \quad\text{für }i=1,\dots, n_2 </math> |
|||
</math> |
|||
besitzen, dann unterliegt die Zufallsvariable |
|||
: <math>Y_{n_{1}-1,n_{2}-1}:=\frac{\sigma_{2}^2(n_{2}-1)\sum\limits_{i=1}^{n_{1}}(X_{i}^{(1)}-\overline{{X}}^{(1)})^{2}} |
|||
{\sigma_{1}^2(n_{1}-1)\sum\limits_{j=1}^{n_{2}}(X_{i}^{(2)}-\overline{{X}}^{(2)})^{2}}</math> |
|||
einer [[F-Verteilung]] mit <math>((n_{1}-1,n_{2}-1))</math> Freiheitsgraden. Dabei sind |
|||
: <math>\overline{X}^{(1)}=\frac{1}{n_{1}}\sum_{i=1}^{n_{1}}X_{i}^{(1)},\quad |
|||
\overline{X}^{(2)}=\frac{1}{n_{2}}\sum_{i=1}^{n_{2}}X_{i}^{(2)}</math>. |
|||
=== Beziehung zur studentschen t-Verteilung === |
|||
Wenn die stochastisch unabhängigen Zufallsvariablen <math>X_1, X_2, \dotsc, X_n</math> identisch normalverteilt sind mit den Parametern <math>\mu</math> und <math>\sigma</math>, dann unterliegt die stetige Zufallsvariable |
|||
: <math>Y_{n-1}=\frac{\overline{X}-\mu}{S/\sqrt{n}}</math> |
|||
mit dem Stichprobenmittel <math>\overline{X}=\frac{1}{n}\sum_{i=1}^nX_i</math>, der Stichprobenvarianz <math>S^2=\frac 1{n-1}\sum_{i=1}^n(X_i-\overline{X})^2</math> und <math>S := \sqrt{S^2}</math> einer [[Studentsche t-Verteilung|studentschen t-Verteilung]] mit <math>(n-1)</math> Freiheitsgraden. |
|||
Für eine zunehmende Anzahl an Freiheitsgraden nähert sich die studentsche t-Verteilung der Normalverteilung immer näher an. Als Faustregel gilt, dass man ab ca. <math>df > 30</math> die studentsche t-Verteilung bei Bedarf durch die Normalverteilung approximieren kann. |
|||
::<math> |
|||
{94020690191035873697\over 222759794969712000000}, |
|||
{655782249799531714375489\over 1329207696584271504000000},\ldots |
|||
</math> |
|||
Die studentsche t-Verteilung wird zur [[Konfidenzintervall|Konfidenzschätzung]] für den Erwartungswert einer normalverteilten Zufallsvariable bei unbekannter Varianz verwendet. |
|||
== Besondere Eigenschaften == |
|||
== Testen auf Normalverteilung == |
|||
Die Normalverteilung ist invariant gegenüber der [[Faltung (Mathematik)|Faltung]], d. h. die Faltung einer Gaußkurve der Halbwertsbreite <math>\Gamma_{a}</math> mit einer Gaußkurve der Halbwertsbreite <math>\Gamma_{b}</math> ergibt wieder eine Gaußkurve mit der Halbwertsbreite <math>\Gamma_{c} = \sqrt{\Gamma_{a}^{2} + \Gamma_{b}^{2}}</math> |
|||
[[Datei:Quantile graph.svg|mini|300px|[[Quantil (Wahrscheinlichkeitstheorie)|Quantile]] einer Normalverteilung und einer [[Chi-Quadrat-Verteilung]]]] |
|||
[[Datei:Anpassungstests.svg|mini|300px|Eine χ²-verteilte Zufallsvariable mit 5 Freiheitsgraden wird auf Normalverteilung getestet. Für jeden Stichprobenumfang werden 10.000 Stichproben simuliert und anschließend jeweils 5 Anpassungstests zu einem Niveau von 5 % durchgeführt.]] |
|||
Um zu überprüfen, ob vorliegende Daten normalverteilt sind, können unter anderen folgende Methoden und Tests angewandt werden: |
|||
* [[Chi-Quadrat-Test]] |
|||
* [[Kolmogorow-Smirnow-Test]] |
|||
* [[Anderson-Darling-Test]] (Modifikation des Kolmogorow-Smirnow-Tests) |
|||
* [[Lilliefors-Test]] (Modifikation des Kolmogorow-Smirnow-Tests) |
|||
* [[Cramér-von-Mises-Test]] |
|||
* [[Shapiro-Wilk-Test]] |
|||
* [[Jarque-Bera-Test]] |
|||
* [[Q-Q-Plot]] (deskriptive Überprüfung) |
|||
* [[Maximum-Likelihood-Methode]] (deskriptive Überprüfung) |
|||
Die Tests haben unterschiedliche Eigenschaften hinsichtlich der Art der Abweichungen von der Normalverteilung, die sie erkennen. So erkennt der Kolmogorov-Smirnov-Test Abweichungen in der Mitte der Verteilung eher als Abweichungen an den Rändern, während der Jarque-Bera-Test ziemlich sensibel auf stark abweichende Einzelwerte an den Rändern („[[Verteilung mit schweren Rändern|schwere Ränder]]“) reagiert. |
|||
Beim Lilliefors-Test muss im Gegensatz zum Kolmogorov-Smirnov-Test nicht standardisiert werden, d. h., <math>\mu</math> und <math>\sigma</math> der angenommenen Normalverteilung dürfen unbekannt sein. |
|||
Die Dichtefunktion der Normalverteilung ist ein [[Fixpunkt (Mathematik)|Fixpunkt]] der [[Fourier-Transformation]], d.h. die Fourier-Transformierte einer Gaußkurve ist wieder eine Gaußkurve. Das Produkt der [[Standardabweichung]]en dieser korrespondierenden Gaußkurven ist konstant; es gilt die [[Heisenbergsche Unschärferelation]]. |
|||
Mit Hilfe von [[Quantil-Quantil-Diagramm]]en bzw. Normal-Quantil-Diagrammen ist eine einfache grafische Überprüfung auf Normalverteilung möglich.<br />Mit der Maximum-Likelihood-Methode können die Parameter <math>\mu</math> und <math>\sigma</math> der Normalverteilung geschätzt und die empirischen Daten mit der angepassten Normalverteilung grafisch verglichen werden. |
|||
Die Normalverteilung hat unter den Verteilungen mit gleicher Varianz die größte [[Entropie]]. |
|||
== Erzeugung normalverteilter Zufallszahlen == |
|||
:<math> \ s^2= \frac{1}{n- 1} \sum_{i=1}^n{(x_i-\bar{x})^2} </math> |
|||
Alle folgenden Verfahren erzeugen standardnormalverteilte Zufallszahlen. Durch lineare Transformation lassen sich hieraus beliebige normalverteilte Zufallszahlen erzeugen: Ist die Zufallsvariable <math>x \sim \mathcal{N}(0,1)</math>-verteilt, so ist <math>a \cdot x + b</math> schließlich <math>\mathcal{N}(b,a^2)</math>-verteilt. |
|||
=== Box-Muller-Methode === |
|||
== Mehrdimensionale Normalverteilung == |
|||
Nach der [[Box-Muller-Methode]] lassen sich zwei unabhängige, standardnormalverteilte Zufallsvariablen <math>X</math> und <math>Y</math> aus zwei unabhängigen, [[Gleichverteilung|gleichverteilten]] Zufallsvariablen <math>U_1,U_2 \sim U(0,1)</math>, sogenannten [[Standardzufallszahl]]en, simulieren: |
|||
: <math>X= \cos( 2 \pi U_1) \sqrt{-2\ln U_2}</math> |
|||
[[Bild:NormalVert2d korrel.png|thumb|Dichte der zweidimensionalen Normalverteilung; die Standardabweichung der zweiten Koordinate Y ist 2, die Korrelation zwischen den Koordinaten 0.7]] |
|||
Das Wahrscheinlichkeitsmaß <math>\mathcal{N}^n(0,1)</math> auf <math>\mathbb{R}^n</math>, das durch die Dichtefunktion |
|||
und |
|||
:<math>f: \R^n \to \R,\ (x_1,\ldots,x_n) \mapsto |
|||
: <math>Y = \sin ( 2 \pi U_1 ) \sqrt{-2 \ln U_2}.</math> |
|||
=== Polar-Methode === |
|||
definiert wird, heißt '''Standardnormalverteilung der Dimension <math> n </math>'''. Ein Zufallsvektor <math>X = (X_1,\ldots,X_n)</math> ist genau dann standardnormalverteilt auf <math>\R^n</math> , wenn seine Komponenten <math>X_1,\ldots,X_n</math> standardnormalverteilt und [[Stochastische Unabhängigkeit|stochastisch unabhängig]] sind. |
|||
{{Hauptartikel|Polar-Methode}} |
|||
Die Polar-Methode von [[George Marsaglia]] ist auf einem Computer schneller, da sie keine Auswertungen von trigonometrischen Funktionen benötigt: |
|||
Ein Wahrscheinlichkeitsmaß <math> P </math> auf <math>\R^n</math> heißt |
|||
'''<math> n </math>-dimensionale Normalverteilung''', wenn eine Matrix <math>A \in \R^{n \times n}</math> |
|||
und ein Vektor <math>b \in \R^n</math> existieren, so dass mit der affinen Abbildung <math>u: \R^n \to \R^n,\ x \mapsto Ax+b</math> gilt: |
|||
<math> u^{-1}(P) = \mathcal{N}^n(0,1)</math>. |
|||
# Erzeuge zwei voneinander unabhängige, im Intervall <math>[-1, 1]</math> gleichverteilte Zufallszahlen <math>u_1</math> und <math>u_2</math> |
|||
Die multivariate Normalverteilung ist die einzige [[symmetrisch|rotationssymmetrische]] [[multivariate Verteilung]], |
|||
# Berechne <math>q=u_1^2+u_2^2</math>. Falls <math>q = 0</math> oder <math>q \geq 1</math>, gehe zurück zu Schritt 1. |
|||
deren [[Komponente]]n stochastisch unabhängig sind. |
|||
# Berechne <math>p = \sqrt {\frac{-2 \cdot \ln q}{q}}</math>. |
|||
# <math>x_i=u_i \cdot p</math> für <math>i=1,2</math> liefert zwei voneinander unabhängige, standardnormalverteilte Zufallszahlen <math>x_1</math> und <math>x_2</math>. |
|||
<!-- |
|||
#Generiere zwei gleichverteilte Zufallsvariablen <math>u_1,u_2 = U(0,1)</math> |
|||
#Berechne <math>v=(2u_1-1)^2+(2u_2-1)^2</math>. Falls <math>v \ge 1</math> wiederhole 1. |
|||
#<math>x=(2u_1-1)(-2\log v /v)^{1/2}</math> |
|||
--> |
|||
=== Ziggurat-Algorithmus === |
|||
Die Dichtefunktion der zweidimensionalen Normalverteilung mit einem [[Korrelationskoeffizient]]en <math>\rho</math> ist |
|||
Der Ziggurat-Algorithmus, der ebenfalls von George Marsaglia entwickelt wurde, ist effizienter als die Box-Muller-Methode.<ref>{{Literatur |Autor=Michael Günther, Ansgar Jüngel |Titel=Finanzderivate mit MATLAB - Mathematische Modellierung und numerische Simulation |Verlag=Vieweg+Teubner Verlag |Datum=2003 |ISBN=9783834808790 |Seiten=115}}</ref> Er ist der voreingestellte Algorithmus, mit dem in [[Matlab]] und [[GNU Octave|Octave]] normalverteilte Zufallszahlen erzeugt werden.<ref>{{Internetquelle |url=https://de.mathworks.com/help/matlab/math/creating-and-controlling-a-random-number-stream.html#brvfsq3-2%20Matlab-Hilfe |titel=Creating and Controlling a Random Number Stream in Matlab |sprache=de |abruf=2023-09-16}}</ref><ref>{{Internetquelle |url=https://octave.sourceforge.io/octave/function/randn.html |titel=Octave Function Reference: randn |abruf=2023-09-16}}</ref> |
|||
=== Verwerfungsmethode === |
|||
:<math>f(x_1,x_2)=\frac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}} \, \cdot \, \exp \left[ \left(-\frac{1}{2(1-\rho^2)}\right) \left( \left(\frac{x_1-\mu_1}{\sigma_1}\right)^2 -2\rho\,\frac{x_1-\mu_1}{\sigma_1}\,\frac{x_2-\mu_2}{\sigma_2}+ \left(\frac{x_2-\mu_2}{\sigma_2}\right)^2\right)\right]</math> |
|||
Normalverteilungen lassen sich mit der [[Verwerfungsmethode]] (siehe dort) simulieren. |
|||
=== Inversionsmethode === |
|||
und schließlich im <math>n</math>-dimensionalen Fall |
|||
Die Normalverteilung lässt sich auch mit der [[Inversionsmethode]] berechnen. |
|||
:<math> |
|||
f_X(x_1, \cdots, x_N) |
|||
= |
|||
\frac |
|||
{1} |
|||
{(2\pi)^{N/2} \left|\Sigma\right|^{1/2}} |
|||
\exp |
|||
\left( |
|||
-\frac{1}{2} |
|||
( x - \mu)^\top \Sigma^{-1} (x - \mu) |
|||
\right) |
|||
</math> |
|||
Mit der <math>[-1,1]</math>-gleichverteilten Verteilung <math>X</math> wird über die Inverse Verteilungsfunktion die Standardnormalverteilung erzeugt: |
|||
mit <math>|\Sigma|</math> als der [[Determinante]] der [[Kovarianzmatrix]] . |
|||
:<math>Y = \mathbb{erf}^{-1}\left(\frac{2}{\sqrt{\pi}}X\right)</math> |
|||
Da die inverse Verteilungsfunktion nicht explizit mit elementaren Funktionen darstellbar ist, muss man auf eine komplexere numerische Darstellung zurückgreifen, mit relativ hohem Aufwand. Reihenentwicklungen sind in der Literatur zu finden.<ref>William B. Jones, W. J. Thron: ''Continued Fractions: Analytic Theory and Applications.'' Addison-Wesley, 1980.</ref> |
|||
=== Zwölferregel === |
|||
Die [[Zwölferregel]] liefert keine exakte Normalverteilung, diese wird nur genähert. Der [[Zentraler Grenzwertsatz|zentrale Grenzwertsatz]] besagt, dass sich unter bestimmten Voraussetzungen die Verteilung der Summe [[Unabhängig und identisch verteilte Zufallsvariablen|unabhängig und identisch verteilter Zufallszahlen]] einer Normalverteilung nähert. |
|||
Nach der [[Zwölferregel]] wird die Standardnormalverteilung durch die Verteilung der Zufallsvariablen <math>Y-6</math> approximiert, wobei <math>Y</math> die Summe von zwölf stochastisch unabhängigen, im Intervall [0,1] gleichverteilten Zufallszahlen <math>X_1,\dots,X_{12}</math> ist. Der Erwartungswert von <math>Y</math> ist 6 und die Varianz von <math>Y</math> ist 1, sodass die Zufallsvariable <math>Y - 6</math> den Erwartungswert 0 und die Varianz 1 hat. Dies führt für viele Anwendungen zu einer akzeptablen Approximation einer Standardnormalverteilung durch die Verteilung der Zufallsvariablen <math>Y-6</math>. Das Verfahren ist allerdings weder effizient noch wird eine echte Normalverteilung erreicht. |
|||
Zudem ist die geforderte Unabhängigkeit der zwölf Zufallsvariablen <math>X_i</math> bei den immer noch häufig verwendeten [[Kongruenzgenerator#Linearer Kongruenzgenerator|Linearen Kongruenzgeneratoren (LKG)]] nicht garantiert. Im Gegenteil wird vom [[Spektraltest]] für LKG meist nur die Unabhängigkeit von maximal vier bis sieben der <math>X_i</math> garantiert. Für numerische Simulationen ist die Zwölferregel daher sehr bedenklich und sollte, wenn überhaupt, dann ausschließlich mit aufwändigeren, aber besseren Pseudo-Zufallsgeneratoren wie z. B. dem [[Mersenne-Twister]] (Standard in [[Python (Programmiersprache)|Python]], [[GNU R]]) oder [[WELL]] genutzt werden. Andere, sogar leichter zu programmierende Verfahren sind daher der Zwölferregel vorzuziehen. |
|||
== Anwendungen außerhalb der Wahrscheinlichkeitsrechnung == |
== Anwendungen außerhalb der Wahrscheinlichkeitsrechnung == |
||
In der Statistik ist die Normalverteilung eine wichtige Wahrscheinlichkeitsverteilung. Sie wird verwendet zur Modellierung einer Merkmalsverteilung in der Grundgesamtheit und zur Modellierung der Verteilung von Messfehlern. Außerdem entsteht sie als [[asymptotische Normalität |asymptotische Verteilung]] von Schätzfunktionen und allgemeineren Statistiken, siehe dazu [[zentrale Grenzwertsätze]] der Statistik. |
|||
Die Gaußsche Normalverteilung lässt sich auch zur Beschreibung nicht direkt stochastischer Sachverhalte verwenden, etwa in der [[Physik]] für das [[Amplitude]]nprofil der [[Gaußstrahlen]] und andere Verteilungsprofile. |
|||
Die Normalverteilung lässt sich auch zur Beschreibung nicht direkt stochastischer Sachverhalte verwenden, etwa in der [[Physik]] für das [[Amplitude]]nprofil der [[Gauß-Strahl]]en und andere Verteilungsprofile. |
|||
Zudem findet sie Verwendung in der [[Gabor-Transformation]]. |
|||
Zudem findet sie Verwendung in der [[Gabor-Transformation]] im Bereich der Signal- und Bildbearbeitung. |
|||
== Siehe auch == |
== Siehe auch == |
||
* [[Normalverteilungsmodell]] |
|||
* [[Wahrscheinlichkeitspapier]] |
|||
* [[Additives weißes gaußsches Rauschen]] |
|||
* [[Statistik]] |
|||
* [[ |
* [[Lineare Regression]] |
||
== |
== Literatur == |
||
* {{Literatur |Titel=Statistical Distributions |Hrsg=Catherine Forbes, Merran Evans, Nicholas Hastings, Brain Peacock |Auflage=4| Verlag=Wiley & Sons |Ort=Hoboken | Datum=2011 |ISBN=978-0-470-39063-4 |Fundstelle=Kap. 33: ''Normal (Gaussian) Distribution'', S. 143–148}} |
|||
{{Wikibooks|Mathematik:_Statistik:_Normalverteilung|Anschauliche Darstellung der Normalverteilung}} |
|||
* {{Literatur |Herausgeber=[[P. Heinz Müller|P. H. Müller]] |Titel=Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik |Verlag=Akademie-Verlag |Ort=Berlin |Datum=1991 |Auflage= 5 |ISBN=978-3-05-500608-1 |Fundstelle=''Normalverteilung'', S. 288–290}} |
|||
* {{Literatur |Autor=[[Horst Rinne]] |Titel=Taschenbuch der Statistik |Verlag=Harri Deutsch |Ort=Frankfurt am Main |Datum=2008 | Auflage= 4 |ISBN=978-3-8171-1827-4 |Fundstelle=Teil B, Kap. 3.10.1: ''Eindimensionale Normalverteilung'', S. 298–306}} |
|||
* {{Literatur |Autor=Jagdish K. Patel, Campbell R. Read |Titel=Handbook of the Normal Distribution |Reihe=Statistics:Textbooks and Monographs |Auflage=Second edition, revised and expanded |Verlag=Dekker |Ort=New York / Basel / Hong Kong |Datum=1966 |ISBN=0-8247-9342-0}} |
|||
* Stephen M. Stigler: ''The history of statistics: the measurement of uncertainty before 1900.'' Belknap Series. Harvard University Press, 1986. ISBN 978-0-674-40341-3. |
|||
* {{Literatur |Autor=[[Paul J. Nahin]]|Titel=The Probability Integral. Its Origin, Its Importance, and Its Calculation|Verlag=Springer |Ort=Cham |Datum=2023 |ISBN=978-3-031-38415-8}} |
|||
== Weblinks == |
|||
*http://www.madeasy.de/2/gauss.htm mit Programmcode in [[Visual Basic]] |
|||
{{Commonscat|Normal distribution|Normalverteilung|audio=1|video=1}} |
|||
{{Wikibooks|Mathematrix: Kompass/ Statistik und Wahrscheinlichkeitsrechnung/ Normalverteilung|<math>\begin{smallmatrix}{\mathbf{MATHE} \mu \alpha T\mathbb R ix}\end{smallmatrix}</math>: Mathematik für die Schule |suffix=-}} |
|||
{{Wikibooks|Statistik: Normalverteilung|Anschauliche Darstellung der Normalverteilung}} |
|||
* [https://matheguru.com/stochastik/normalverteilung.html Anschauliche Erklärung der Normalverteilung mit interaktivem Graphen] |
|||
* {{Webarchiv | url=http://www.madeasy.de/2/gauss.htm | wayback=20180207233344 | text=Darstellung mit Programmcode}} in [[Visual Basic Classic]] |
|||
* [http://www.elektro-energetika.cz/calculations/no.php?language=deutsch Online-Rechner Normalverteilung] |
|||
* Santa Cruz Institute for Particle Physics: [https://scipp.ucsc.edu/~haber/ph116C/NormalApprox.pdf The Normal Approximation to the Binomial Distribution] |
|||
* University of Connecticut: [https://probability.oer.math.uconn.edu/wp-content/uploads/sites/2187/2018/01/prob3160ch9.pdf Normal approximation to the binomial] |
|||
* Universität Uppsala: [https://uu.diva-portal.org/smash/get/diva2:425478/FULLTEXT01.pdf Approximating the Binomial Distribution by the Normal Distribution – Error and Accuracy] |
|||
* University of Saskatchewan: [https://openpress.usask.ca/introtoappliedstatsforpsych/chapter/5-2-the-normal-distribution-as-a-limit-of-binomial-distributions/ The Normal Distribution as a Limit of Binomial Distributions] |
|||
== Einzelnachweise == |
|||
[[Kategorie:Statistik]] |
|||
<references> |
|||
[[Kategorie:Stochastik]] |
|||
<ref name="Götze 2002"> |
|||
[[Kategorie:Wahrscheinlichkeitsverteilung]] |
|||
{{Literatur |
|||
|Autor=Wolfgang Götze, Christel Deutschmann, Heike Link |
|||
|Titel=Statistik. Lehr- und Übungsbuch mit Beispielen aus der Tourismus- und Verkehrswirtschaft |
|||
|Verlag=Oldenbourg |
|||
|Ort=München |
|||
|Datum=2002 |
|||
|ISBN=3-486-27233-0 |
|||
|Seiten=170 |
|||
|Online={{Google Buch |BuchID=lRPnBQAAQBAJ |Seite=170}}}} |
|||
</ref> |
|||
</references> |
|||
{{Navigationsleiste Wahrscheinlichkeitsverteilungen}}{{Normdaten|TYP=s|GND=4075494-7}} |
|||
[[fa:توزیع نرمال]] |
|||
[[Kategorie:Absolutstetige Wahrscheinlichkeitsverteilung]] |
|||
[[id:Distribusi normal]] |
|||
[[Kategorie:Univariate Wahrscheinlichkeitsverteilung]] |
|||
[[su:Sebaran normal]] |
|||
[[Kategorie:Carl Friedrich Gauß als Namensgeber]] |
|||
[[bs:Normalna distribucija]] |
|||
[[da:Normalfordeling]] |
|||
[[en:Normal distribution]] |
|||
[[es:Distribución normal]] |
|||
[[eo:Normala distribuo]] |
|||
[[fr:Loi normale]] |
|||
[[gl:Distribución normal]] |
|||
[[he:התפלגות נורמלית]] |
|||
[[is:Normaldreifing]] |
|||
[[it:Variabile casuale normale]] |
|||
[[lv:Normālsadalījums]] |
|||
[[lt:Normalusis skirstinys]] |
|||
[[nl:Normale verdeling]] |
|||
[[pl:Rozkład normalny]] |
|||
[[pt:Distribuição normal]] |
|||
[[ru:Нормальное распределение]] |
|||
[[fi:Normaalijakauma]] |
|||
[[sv:Normalfördelning]] |
|||
[[uk:Нормальний розподіл]] |
|||
[[ko:정규 분포]] |
|||
[[ja:正規分布]] |
|||
[[zh:常態分布]] |
Aktuelle Version vom 19. Juli 2025, 21:12 Uhr
Normalverteilung | |
Dichtefunktion ![]() (blau), (rot), (gelb) und (grün) | |
Verteilungsfunktion![]() (blau), (rot), (gelb) und (grün) | |
Parameter | – Erwartungswert – Varianz |
---|---|
Träger | |
Dichtefunktion | |
Verteilungsfunktion | – mit Fehlerfunktion |
Erwartungswert | |
Median | |
Modus | |
Varianz | |
Schiefe | |
Wölbung | |
Entropie | |
Momenterzeugende Funktion | |
Charakteristische Funktion | |
Fisher-Information |
Die Normal- oder Gauß-Verteilung (nach Carl Friedrich Gauß) ist in der Stochastik ein wichtiger Typ stetiger Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichtefunktion wird auch Gauß-Funktion, gaußsche Normalverteilung, gaußsche Verteilungskurve, Gauß-Kurve, gaußsche Glockenkurve, gaußsche Glockenfunktion, Gauß-Glocke oder schlicht Glockenkurve genannt. Sie hat die Form
mit dem Erwartungswert und der Standardabweichung .
Die besondere Bedeutung der Normalverteilung beruht unter anderem auf dem zentralen Grenzwertsatz, dem zufolge Verteilungen, die durch additive Überlagerung einer großen Zahl von unabhängigen Einflüssen entstehen, unter schwachen Voraussetzungen annähernd normalverteilt sind.
In der Messtechnik wird häufig eine Normalverteilung angesetzt, um die Streuung von Messwerten zu beschreiben. Die Abweichungen der Messwerte vieler natur-, wirtschafts- und ingenieurwissenschaftlicher Vorgänge vom Erwartungswert lassen sich durch die Normalverteilung in guter Näherung beschreiben (vor allem Prozesse, die in mehreren Faktoren unabhängig voneinander in verschiedene Richtungen wirken).
Zufallsvariablen mit Normalverteilung benutzt man zur Beschreibung zufälliger Vorgänge wie:
- zufällige Streuung von Messwerten,
- zufällige Abweichungen vom Sollmaß bei der Fertigung von Werkstücken,
- Beschreibung der brownschen Molekularbewegung.
Der Erwartungswert kann als Schwerpunkt der Verteilung interpretiert werden. Die Standardabweichung gibt ihre Breite an.
Geschichte
[Bearbeiten | Quelltext bearbeiten]Im Jahre 1733 zeigte Abraham de Moivre in seiner Schrift The Doctrine of Chances im Zusammenhang mit seinen Arbeiten am Grenzwertsatz für Binomialverteilungen eine Abschätzung des Binomialkoeffizienten, die als Vorform der Normalverteilung gedeutet werden kann.[1]
Die für die Normierung der Normalverteilungsdichte zur Wahrscheinlichkeitsdichte notwendige Berechnung des nichtelementaren Integrals
gelang Pierre-Simon Laplace im Jahr 1782 (nach anderen Quellen Poisson).
Im Jahr 1809 publizierte Gauß sein Werk Theoria motus corporum coelestium in sectionibus conicis solem ambientium (deutsch Theorie der Bewegung der in Kegelschnitten sich um die Sonne bewegenden Himmelskörper), das neben der Methode der kleinsten Quadrate und der Maximum-Likelihood-Schätzung die Normalverteilung definiert. Wiederum Laplace war es, der 1810 den Satz vom zentralen Grenzwert bewies, der die Grundlage der theoretischen Bedeutung der Normalverteilung darstellt und de Moivres Arbeit am Grenzwertsatz für Binomialverteilungen abschloss.
Adolphe Quetelet erkannte schließlich bei Untersuchungen des Brustumfangs von mehreren tausend Soldaten im Jahr 1845 eine verblüffende Übereinstimmung mit der Normalverteilung und brachte die Normalverteilung in die angewandte Statistik.[2]
Zunächst wurde die Normalverteilung als Fehlergesetz (Law of Error) oder Fehlerkurve (error curve) bezeichnet. Die erste unzweideutige Verwendung der Bezeichnung „Normalverteilung“ für die Verteilung mit der Formulierung „Normal Curve of Distribution“ wird Francis Galton (1889)[3] zugeschrieben.[4][5] Der Wissenschaftshistoriker Stephen M. Stigler identifizierte[6] drei frühere – vermutlich voneinander unabhängige – Verwendungen des Wortes normal im Zusammenhang mit der später Normalverteilung genannten Verteilung durch Charles S. Peirce (1873),[7] Francis Galton (1877)[8] und Wilhelm Lexis (1877),[9] dabei werden eher die beobachteten Werte oder Teile der beobachteten Werte als „normal“ bezeichnet.
Definition
[Bearbeiten | Quelltext bearbeiten]Eine Zufallsvariable hat eine Normalverteilung mit Erwartungswert und Standardabweichung bzw. Varianz , wobei , oft geschrieben als , wenn die folgende Wahrscheinlichkeitsdichte hat:[10][11]
- .
Eine Zufallsvariable, deren Wahrscheinlichkeitsverteilung eine Normalverteilung ist, heißt normalverteilt. Eine normalverteilte Zufallsvariable heißt auch gaußsche Zufallsvariable.
Eine Normalverteilung mit den Parametern und heißt Standardnormalverteilung, standardisierte Normalverteilung[12] oder normierte Normalverteilung.[13] Eine Zufallsvariable, deren Wahrscheinlichkeitsverteilung eine Standardnormalverteilung ist, heißt standardnormalverteilt. Eine standardnormalverteilte Zufallsvariable hat die Dichtefunktion
- ,
siehe auch Fehlerintegral.
Zur mehrdimensionalen Verallgemeinerung siehe Mehrdimensionale Normalverteilung.
Alternative Definition
[Bearbeiten | Quelltext bearbeiten]Alternativ lässt sich die Normalverteilung auch über ihre charakteristische Funktion definieren:
Diese Definition erweitert die obige Definition zusätzlich um den Fall .
Eigenschaften
[Bearbeiten | Quelltext bearbeiten]Erwartungswert und Varianz
[Bearbeiten | Quelltext bearbeiten]Ist , dann gilt für den Erwartungswert
und für die Varianz
- .
Insbesondere ist der Erwartungswert der Standardnormalverteilung , denn für gilt
da der Integrand integrierbar und punktsymmetrisch ist.
Standardisierung
[Bearbeiten | Quelltext bearbeiten]Eine Zufallsvariable wird durch Standardisierung in eine standardnormalverteilte Zufallsvariable überführt.
Verteilungsfunktion
[Bearbeiten | Quelltext bearbeiten]Die Wahrscheinlichkeitsdichte einer normalverteilten Zufallsvariable ist nicht elementar integrierbar, sodass Wahrscheinlichkeiten numerisch berechnet werden müssen. Die Wahrscheinlichkeiten können mithilfe einer Standardnormalverteilungstabelle berechnet werden, die eine Standardform verwendet. Dabei bedient man sich der Tatsache, dass die lineare Transformation einer normalverteilten Zufallsvariablen zu einer neuen Zufallsvariable führt, die ebenfalls normalverteilt ist. Konkret heißt das, wenn und , wobei und Konstanten sind mit , dann gilt . Damit bilden Normalverteilungen eine Lage-Skalen-Familie.
Die Verteilungsfunktion der Normalverteilung ist durch
gegeben. Die Wahrscheinlichkeit, dass eine Realisierung im Intervall hat, ist damit .
Wenn man durch die Substitution statt eine neue Integrationsvariable einführt, ergibt sich mit und (gemäß dem oben angeführten Linearitätskriterium)
Dabei ist die Verteilungsfunktion der Standardnormalverteilung:
Mit der Fehlerfunktion lässt sich darstellen als
Funktionsgraph
[Bearbeiten | Quelltext bearbeiten]Der Graph der Dichtefunktion bildet eine Gaußsche Glockenkurve und ist achsensymmetrisch mit dem Parameter als Symmetriezentrum, der auch den Erwartungswert, den Median und den Modus der Verteilung darstellt. Vom zweiten Parameter hängen Höhe und Breite der Wahrscheinlichkeitsdichte ab, die Wendepunkte liegen bei .
Der Graph der Verteilungsfunktion ist punktsymmetrisch zum Punkt Für gilt insbesondere und für alle .
Als Wahrscheinlichkeitsverteilung ist die Gesamtfläche unter der Kurve gleich . Dass jede Normalverteilung normiert ist, ergibt sich über die lineare Substitution :
- .
Für die Normiertheit des letzteren Integrals siehe Fehlerintegral.
Momenterzeugende Funktion und höhere Momente
[Bearbeiten | Quelltext bearbeiten]Die momenterzeugende Funktion der -verteilten Normalverteilung lautet
- .
Nach dem stochastischen Moment 1. Ordnung, dem Erwartungswert, und dem zentralen Moment 2. Ordnung, der Varianz, ist die Schiefe das zentrale Moment 3. Ordnung. Es ist unabhängig von den Parametern und immer den Wert . Die Wölbung als zentrales Moment 4. Ordnung ist ebenfalls von und unabhängig und ist gleich . Um die Wölbungen anderer Verteilungen besser einschätzen zu können, werden sie oft mit der Wölbung der Normalverteilung verglichen. Dabei wird die Wölbung der Normalverteilung auf normiert (Subtraktion von 3); diese Größe wird als Exzess bezeichnet.
Die ersten Momente wie sind folgt:
Ordnung | Moment | zentrales Moment |
---|---|---|
0 | ||
1 | ||
2 | ||
3 | ||
4 | ||
5 | ||
6 | ||
7 | ||
8 |
Alle zentralen Momente lassen sich durch die Standardabweichung darstellen:
dabei wurde die Doppelfakultät verwendet:
Auch für kann eine Formel für nicht-zentrale Momente angegeben werden. Dafür transformiert man und wendet den binomischen Lehrsatz an.
Die mittlere absolute Abweichung ist und der Interquartilsabstand .
Standardabweichung
[Bearbeiten | Quelltext bearbeiten]
Aus der Standardnormalverteilungstabelle ist ersichtlich, dass für normalverteilte Zufallsvariablen jeweils ungefähr
- 68,3 % der Realisierungen im Intervall ,
- 95,4 % im Intervall und
- 99,7 % im Intervall
liegen. Da in der Praxis viele Zufallsvariablen annähernd normalverteilt sind, werden diese Werte aus der Normalverteilung oft als Faustformel benutzt. So wird beispielsweise oft als die halbe Breite des Intervalls angenommen, das die mittleren zwei Drittel der Werte in einer Stichprobe umfasst.
Realisierungen außerhalb der zwei- bis dreifachen Standardabweichung gelten oft als verdächtig, Ausreißer zu sein. Sie können ein Hinweis auf grobe Fehler der Datenerfassung oder auch auf das Nichtvorhandensein einer Normalverteilung sein. Andererseits liegt bei einer Normalverteilung im Durchschnitt ca. jeder 20. Messwert außerhalb der zweifachen Standardabweichung und ca. jeder 370. Messwert außerhalb der dreifachen Standardabweichung, ohne dass es sich dabei um Ausreißer handelt.


Die Wahrscheinlichkeit, dass eine normalverteilte Zufallsvariable einen Wert im Intervall annimmt, ist genau so groß, wie die Wahrscheinlichkeit, dass ein standardnormalverteilte Zufallsvariable einen Wert im Intervall annimmt, es gilt also
- .[14]
Damit können bestimmte Wahrscheinlichkeitsaussagen für Normalverteilungen mit beliebigen Parametern und auf die Standardnormalverteilung zurückgeführt werden.
Die Wahrscheinlichkeit kann alternativ durch die Verteilungsfunktion der Standardnormalverteilung oder durch die Fehlerfunktion ausgedrückt werden:
Umgekehrt ist zu einer vorgegebenen Wahrscheinlichkeit die Stelle , für die gilt, durch
gegeben.
0,674490 | 50 % | 50 % |
1 | 68,268 9492 % | 31,731 0508 % |
1,17741 (Halbwertsbreite) |
76,096 8106 % | 23,903 1891 % |
1,644854 | 90 % | 10 % |
2 | 95,449 9736 % | 4,550 0264 % |
2,575829 | 99 % | 1 % |
3 | 99,730 0204 % | 0,269 9796 % |
3,290527 | 99,9 % | 0,1 % |
3,890592 | 99,99 % | 0,01 % |
4 | 99,993 666 % | 0,006 334 % |
4,417173 | 99,999 % | 0,001 % |
4,891638 | 99,9999 % | 0,0001 % |
5 | 99,999 942 6697 % | 0,000 057 3303 % |
5,326724 | 99,999 99 % | 0,000 01 % |
5,730729 | 99,999 999 % | 0,000 001 % |
6 | 99,999 999 8027 % | 0,000 000 1973 % |
Halbwertsbreite
[Bearbeiten | Quelltext bearbeiten]Der Wert der Dichtefunktion der Standardnormalverteilung fällt auf die Hälfte des Maximums, wenn , also bei . Die Halbwertsbreite ist damit das fache der Standardabweichung.
Variationskoeffizient
[Bearbeiten | Quelltext bearbeiten]Aus Erwartungswert und Standardabweichung der -Verteilung erhält man unmittelbar den Variationskoeffizienten
Kumulanten
[Bearbeiten | Quelltext bearbeiten]Die kumulantenerzeugende Funktion ist
Damit ist die erste Kumulante , die zweite ist und alle weiteren Kumulanten verschwinden.
Charakteristische Funktion
[Bearbeiten | Quelltext bearbeiten]Die charakteristische Funktion für eine standardnormalverteilte Zufallsvariable ist
- .
Für eine Zufallsvariable erhält man daraus mit :
- .
Invarianz gegenüber Faltung
[Bearbeiten | Quelltext bearbeiten]Die Normalverteilung ist invariant gegenüber der Faltung, d. h., die Summe unabhängiger normalverteilter Zufallsvariablen ist wieder normalverteilt (siehe dazu auch unter stabile Verteilungen bzw. unter unendliche teilbare Verteilungen). Somit bildet die Normalverteilung eine Faltungshalbgruppe in ihren beiden Parametern. Eine veranschaulichende Formulierung dieses Sachverhaltes lautet: Die Faltung einer Gaußkurve der Standardabweichung mit einer Gaußkurve der Standardabweichung ergibt wieder eine Gaußkurve mit der Standardabweichung
- .
Sind also zwei unabhängige Zufallsvariablen mit
so ist deren Summe ebenfalls normalverteilt:
- .
Das kann beispielsweise mit Hilfe von charakteristischen Funktionen gezeigt werden, indem man verwendet, dass die charakteristische Funktion der Summe das Produkt der charakteristischen Funktionen der Summanden ist (vgl. Faltungssatz der Fouriertransformation).
Damit ist jede Linearkombination wieder normalverteilt. Nach dem Satz von Cramér gilt sogar die Umkehrung: Ist eine normalverteilte Zufallsvariable die Summe von unabhängigen Zufallsvariablen, dann sind die Summanden ebenfalls normalverteilt. Man spricht davon, dass die Normalverteilung reproduktiv ist bzw. die Reproduktivitätseigenschaft besitzt.
Die Dichtefunktion der Normalverteilung ist ein Fixpunkt der Fourier-Transformation, d. h., die Fourier-Transformierte einer Gaußkurve ist wieder eine Gaußkurve. Das Produkt der Standardabweichungen dieser korrespondierenden Gaußkurven ist konstant; es gilt die Heisenbergsche Unschärferelation.
Entropie
[Bearbeiten | Quelltext bearbeiten]Eine normalverteilte Zufallsvariable hat die Shannon-Entropie .[16][17] Sie hat für gegebenen Erwartungswert und gegebene Varianz die größte Entropie unter allen stetigen Verteilungen.[18]
Anwendung
[Bearbeiten | Quelltext bearbeiten]Beispiel zur Standardabweichung
[Bearbeiten | Quelltext bearbeiten]Die Körpergröße des Menschen ist näherungsweise normalverteilt. Bei einer Stichprobe von 1.284 Mädchen und 1.063 Jungen zwischen 14 und 18 Jahren wurde bei den Mädchen eine durchschnittliche Körpergröße von 166,3 cm (Standardabweichung 6,39 cm) und bei den Jungen eine durchschnittliche Körpergröße von 176,8 cm (Standardabweichung 7,46 cm) gemessen.[19]
Demnach lässt obige Schwankungsbreite erwarten, dass 68,3 % der Mädchen eine Körpergröße im Bereich 166,3 cm ± 6,39 cm und 95,4 % im Bereich 166,3 cm ± 12,8 cm haben, also
- 16 % [≈ (100 % − 68,3 %)/2] der Mädchen kleiner als 160 cm (und 16 % entsprechend größer als 173 cm) sind und
- 2,5 % [≈ (100 % − 95,4 %)/2] der Mädchen kleiner als 154 cm (und 2,5 % entsprechend größer als 179 cm) sind.
Für die Jungen lässt sich erwarten, dass 68,3 % eine Körpergröße im Bereich 176,8 cm ± 7,46 cm und 95,4 % im Bereich 176,8 cm ± 14,92 cm haben, also
- 16 % der Jungen kleiner als 169 cm (und 16 % größer als 184 cm) und
- 2,5 % der Jungen kleiner als 162 cm (und 2,5 % größer als 192 cm) sind.
Kontaminierte Normalverteilung
[Bearbeiten | Quelltext bearbeiten]
Von der Verteilung
ist die Standardabweichung . Die Verteilung ist optisch kaum von der Normalverteilung zu unterscheiden (siehe Bild), aber bei ihr liegen im Intervall 92,5 % der Werte. Solche kontaminierten Normalverteilungen sind in der Praxis häufig; das genannte Beispiel beschreibt die Situation, wenn zehn Präzisionsmaschinen etwas herstellen, aber eine davon schlecht justiert ist und mit zehnmal so hohen Abweichungen wie die anderen neun produziert.
Gestutzte Normalverteilung
[Bearbeiten | Quelltext bearbeiten]Bei der gestutzten Normalverteilung ist die Wahrscheinlichkeitsdichte außerhalb eines Intervalls mit gleich Null. Entsprechend erhöht sich in dem Intervall, so dass das Integral bleibt.
Six Sigma
[Bearbeiten | Quelltext bearbeiten]Da der Anteil der Werte außerhalb der sechsfachen Standardabweichung mit ca. 2 ppb verschwindend klein wird, gilt ein solches Intervall als gutes Maß für eine nahezu vollständige Abdeckung aller Werte. Das wird im Qualitätsmanagement durch die Methode Six Sigma genutzt, indem die Prozessanforderungen Toleranzgrenzen von mindestens vorschreiben. Allerdings geht man dort von einer langfristigen Erwartungswertverschiebung um 1,5 Standardabweichungen aus, sodass der zulässige Fehleranteil auf 3,4 ppm steigt. Dieser Fehleranteil entspricht einer viereinhalbfachen Standardabweichung (). Ein weiteres Problem der -Methode ist, dass die -Punkte praktisch nicht bestimmbar sind. Bei unbekannter Verteilung (d. h., wenn es sich nicht ganz sicher um eine Normalverteilung handelt) grenzen zum Beispiel die Extremwerte von 1.400.000.000 Messungen ein 75-%-Konfidenzintervall für die -Punkte ein.[20]
Beziehungen zu anderen Verteilungsfunktionen
[Bearbeiten | Quelltext bearbeiten]Normalverteilung als Grenzverteilung der Binomialverteilung
[Bearbeiten | Quelltext bearbeiten]Die Binomialverteilung ist eine diskrete Verteilung, die sich aus einer Anzahl an Versuchen ergibt. Jeder einzelne Versuch hat die Wahrscheinlichkeit eines Erfolges . Die Binomialverteilung gibt dann die Wahrscheinlichkeit an, dass die Versuche genau -mal ein Erfolg war, mit .
Durch einen Grenzübergang für ergeben sich die Dichtefunktion einer Normalverteilung aus der Wahrscheinlichkeitsfunktion der Binomialverteilung (lokaler Grenzwertsatz von Moivre-Laplace) und die Verteilungsfunktion einer Normalverteilung aus der Verteilungsfunktion der Binomialverteilung (globaler Grenzwertsatz von Moivre-Laplace). Dies ist eine Rechtfertigung dafür, die Binomialverteilung mit den Parametern und für hinreichend große durch die Normalverteilung zu approximieren.
Approximation der Binomialverteilung durch die Normalverteilung
[Bearbeiten | Quelltext bearbeiten]Die Normalverteilung kann zur Approximation der Binomialverteilung verwendet werden, wenn der Stichprobenumfang hinreichend groß und in der Grundgesamtheit der Anteil der gesuchten Eigenschaft weder zu groß noch zu klein ist (Satz von Moivre-Laplace, zentraler Grenzwertsatz, zur experimentellen Bestätigung siehe auch unter Galtonbrett).
Ist ein Bernoulli-Versuch mit voneinander unabhängigen Stufen (bzw. Zufallsexperimenten) mit einer Erfolgswahrscheinlichkeit gegeben, so lässt sich die Wahrscheinlichkeit für Erfolge allgemein durch berechnen (Binomialverteilung).
Diese Binomialverteilung kann durch eine Normalverteilung approximiert werden, wenn hinreichend groß und weder zu groß noch zu klein ist. Als Faustregel dafür gilt . Für den Erwartungswert und die Standardabweichung gilt dann:
- und .
Damit gilt für die Standardabweichung .
Falls diese Bedingung nicht erfüllt sein sollte, ist die Ungenauigkeit der Näherung immer noch vertretbar, wenn gilt: und zugleich .
Folgende Näherung ist dann brauchbar:
Bei der Normalverteilung wird die untere Grenze um 0,5 verkleinert und die obere Grenze um 0,5 vergrößert, um eine bessere Approximation gewährleisten zu können. Dies nennt man auch „Stetigkeitskorrektur“. Nur wenn einen sehr hohen Wert besitzt, kann auf sie verzichtet werden.
Da die Binomialverteilung diskret ist, muss auf einige Punkte beim Rechnen mit einer binomialverteilten Zufallsvariablen geachtet werden:
- Der Unterschied zwischen oder (sowie zwischen größer und größer gleich) muss beachtet werden (was ja bei der Normalverteilung nicht der Fall ist). Deshalb muss bei die nächstkleinere natürliche Zahl gewählt werden, d. h.
- bzw. ,
- damit mit der Normalverteilung weitergerechnet werden kann.
- Zum Beispiel:
- Außerdem ist
- (unbedingt mit Stetigkeitskorrektur)
- und lässt sich somit durch die oben angegebene Formel berechnen.
Der große Vorteil der Approximation liegt darin, dass sehr viele Stufen einer Binomialverteilung sehr schnell und einfach bestimmt werden können.
Beziehung zur Cauchy-Verteilung
[Bearbeiten | Quelltext bearbeiten]Der Quotient von zwei stochastisch unabhängigen -standardnormalverteilten Zufallsvariablen ist Cauchy-verteilt.
Beziehung zur Chi-Quadrat-Verteilung
[Bearbeiten | Quelltext bearbeiten]Das Quadrat einer standardnormalverteilten Zufallsvariablen hat eine Chi-Quadrat-Verteilung mit einem Freiheitsgrad. Also: Wenn , dann . Weiterhin gilt: Wenn gemeinsam stochastisch unabhängige Chi-Quadrat-verteilte Zufallsvariablen sind, dann gilt
- .
Daraus folgt mit unabhängig und standardnormalverteilten Zufallsvariablen :[21]
Weitere Beziehungen sind:
- Die Summe mit und unabhängigen normalverteilten Zufallsvariablen genügt einer Chi-Quadrat-Verteilung mit Freiheitsgraden.
- Mit steigender Anzahl an Freiheitsgraden (df ≫ 100) nähert sich die Chi-Quadrat-Verteilung der Normalverteilung an.
- Die Chi-Quadrat-Verteilung wird zur Konfidenzschätzung für die Varianz einer normalverteilten Grundgesamtheit verwendet.
Beziehung zur Rayleigh-Verteilung
[Bearbeiten | Quelltext bearbeiten]Der Betrag zweier unabhängiger normalverteilter Zufallsvariablen , jeweils mit Mittelwert und gleichen Varianzen , ist Rayleigh-verteilt mit Parameter .
Beziehung zur logarithmischen Normalverteilung
[Bearbeiten | Quelltext bearbeiten]Ist die Zufallsvariable normalverteilt mit , dann ist die Zufallsvariable logarithmisch-normalverteilt, also .
Die Entstehung einer logarithmischen Normalverteilung ist auf multiplikatives, die einer Normalverteilung auf additives Zusammenwirken vieler Zufallsvariablen zurückführen.
Beziehung zur F-Verteilung
[Bearbeiten | Quelltext bearbeiten]Wenn die stochastisch unabhängigen und normalverteilten Zufallsvariablen und die Parameter
und
besitzen, dann unterliegt die Zufallsvariable
einer F-Verteilung mit Freiheitsgraden. Dabei sind
- .
Beziehung zur studentschen t-Verteilung
[Bearbeiten | Quelltext bearbeiten]Wenn die stochastisch unabhängigen Zufallsvariablen identisch normalverteilt sind mit den Parametern und , dann unterliegt die stetige Zufallsvariable
mit dem Stichprobenmittel , der Stichprobenvarianz und einer studentschen t-Verteilung mit Freiheitsgraden.
Für eine zunehmende Anzahl an Freiheitsgraden nähert sich die studentsche t-Verteilung der Normalverteilung immer näher an. Als Faustregel gilt, dass man ab ca. die studentsche t-Verteilung bei Bedarf durch die Normalverteilung approximieren kann.
Die studentsche t-Verteilung wird zur Konfidenzschätzung für den Erwartungswert einer normalverteilten Zufallsvariable bei unbekannter Varianz verwendet.
Testen auf Normalverteilung
[Bearbeiten | Quelltext bearbeiten]

Um zu überprüfen, ob vorliegende Daten normalverteilt sind, können unter anderen folgende Methoden und Tests angewandt werden:
- Chi-Quadrat-Test
- Kolmogorow-Smirnow-Test
- Anderson-Darling-Test (Modifikation des Kolmogorow-Smirnow-Tests)
- Lilliefors-Test (Modifikation des Kolmogorow-Smirnow-Tests)
- Cramér-von-Mises-Test
- Shapiro-Wilk-Test
- Jarque-Bera-Test
- Q-Q-Plot (deskriptive Überprüfung)
- Maximum-Likelihood-Methode (deskriptive Überprüfung)
Die Tests haben unterschiedliche Eigenschaften hinsichtlich der Art der Abweichungen von der Normalverteilung, die sie erkennen. So erkennt der Kolmogorov-Smirnov-Test Abweichungen in der Mitte der Verteilung eher als Abweichungen an den Rändern, während der Jarque-Bera-Test ziemlich sensibel auf stark abweichende Einzelwerte an den Rändern („schwere Ränder“) reagiert.
Beim Lilliefors-Test muss im Gegensatz zum Kolmogorov-Smirnov-Test nicht standardisiert werden, d. h., und der angenommenen Normalverteilung dürfen unbekannt sein.
Mit Hilfe von Quantil-Quantil-Diagrammen bzw. Normal-Quantil-Diagrammen ist eine einfache grafische Überprüfung auf Normalverteilung möglich.
Mit der Maximum-Likelihood-Methode können die Parameter und der Normalverteilung geschätzt und die empirischen Daten mit der angepassten Normalverteilung grafisch verglichen werden.
Erzeugung normalverteilter Zufallszahlen
[Bearbeiten | Quelltext bearbeiten]Alle folgenden Verfahren erzeugen standardnormalverteilte Zufallszahlen. Durch lineare Transformation lassen sich hieraus beliebige normalverteilte Zufallszahlen erzeugen: Ist die Zufallsvariable -verteilt, so ist schließlich -verteilt.
Box-Muller-Methode
[Bearbeiten | Quelltext bearbeiten]Nach der Box-Muller-Methode lassen sich zwei unabhängige, standardnormalverteilte Zufallsvariablen und aus zwei unabhängigen, gleichverteilten Zufallsvariablen , sogenannten Standardzufallszahlen, simulieren:
und
Polar-Methode
[Bearbeiten | Quelltext bearbeiten]Die Polar-Methode von George Marsaglia ist auf einem Computer schneller, da sie keine Auswertungen von trigonometrischen Funktionen benötigt:
- Erzeuge zwei voneinander unabhängige, im Intervall gleichverteilte Zufallszahlen und
- Berechne . Falls oder , gehe zurück zu Schritt 1.
- Berechne .
- für liefert zwei voneinander unabhängige, standardnormalverteilte Zufallszahlen und .
Ziggurat-Algorithmus
[Bearbeiten | Quelltext bearbeiten]Der Ziggurat-Algorithmus, der ebenfalls von George Marsaglia entwickelt wurde, ist effizienter als die Box-Muller-Methode.[22] Er ist der voreingestellte Algorithmus, mit dem in Matlab und Octave normalverteilte Zufallszahlen erzeugt werden.[23][24]
Verwerfungsmethode
[Bearbeiten | Quelltext bearbeiten]Normalverteilungen lassen sich mit der Verwerfungsmethode (siehe dort) simulieren.
Inversionsmethode
[Bearbeiten | Quelltext bearbeiten]Die Normalverteilung lässt sich auch mit der Inversionsmethode berechnen.
Mit der -gleichverteilten Verteilung wird über die Inverse Verteilungsfunktion die Standardnormalverteilung erzeugt:
Da die inverse Verteilungsfunktion nicht explizit mit elementaren Funktionen darstellbar ist, muss man auf eine komplexere numerische Darstellung zurückgreifen, mit relativ hohem Aufwand. Reihenentwicklungen sind in der Literatur zu finden.[25]
Zwölferregel
[Bearbeiten | Quelltext bearbeiten]Die Zwölferregel liefert keine exakte Normalverteilung, diese wird nur genähert. Der zentrale Grenzwertsatz besagt, dass sich unter bestimmten Voraussetzungen die Verteilung der Summe unabhängig und identisch verteilter Zufallszahlen einer Normalverteilung nähert.
Nach der Zwölferregel wird die Standardnormalverteilung durch die Verteilung der Zufallsvariablen approximiert, wobei die Summe von zwölf stochastisch unabhängigen, im Intervall [0,1] gleichverteilten Zufallszahlen ist. Der Erwartungswert von ist 6 und die Varianz von ist 1, sodass die Zufallsvariable den Erwartungswert 0 und die Varianz 1 hat. Dies führt für viele Anwendungen zu einer akzeptablen Approximation einer Standardnormalverteilung durch die Verteilung der Zufallsvariablen . Das Verfahren ist allerdings weder effizient noch wird eine echte Normalverteilung erreicht.
Zudem ist die geforderte Unabhängigkeit der zwölf Zufallsvariablen bei den immer noch häufig verwendeten Linearen Kongruenzgeneratoren (LKG) nicht garantiert. Im Gegenteil wird vom Spektraltest für LKG meist nur die Unabhängigkeit von maximal vier bis sieben der garantiert. Für numerische Simulationen ist die Zwölferregel daher sehr bedenklich und sollte, wenn überhaupt, dann ausschließlich mit aufwändigeren, aber besseren Pseudo-Zufallsgeneratoren wie z. B. dem Mersenne-Twister (Standard in Python, GNU R) oder WELL genutzt werden. Andere, sogar leichter zu programmierende Verfahren sind daher der Zwölferregel vorzuziehen.
Anwendungen außerhalb der Wahrscheinlichkeitsrechnung
[Bearbeiten | Quelltext bearbeiten]In der Statistik ist die Normalverteilung eine wichtige Wahrscheinlichkeitsverteilung. Sie wird verwendet zur Modellierung einer Merkmalsverteilung in der Grundgesamtheit und zur Modellierung der Verteilung von Messfehlern. Außerdem entsteht sie als asymptotische Verteilung von Schätzfunktionen und allgemeineren Statistiken, siehe dazu zentrale Grenzwertsätze der Statistik.
Die Normalverteilung lässt sich auch zur Beschreibung nicht direkt stochastischer Sachverhalte verwenden, etwa in der Physik für das Amplitudenprofil der Gauß-Strahlen und andere Verteilungsprofile.
Zudem findet sie Verwendung in der Gabor-Transformation im Bereich der Signal- und Bildbearbeitung.
Siehe auch
[Bearbeiten | Quelltext bearbeiten]Literatur
[Bearbeiten | Quelltext bearbeiten]- Catherine Forbes, Merran Evans, Nicholas Hastings, Brain Peacock (Hrsg.): Statistical Distributions. 4. Auflage. Wiley & Sons, Hoboken 2011, ISBN 978-0-470-39063-4, Kap. 33: Normal (Gaussian) Distribution, S. 143–148.
- P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Normalverteilung, S. 288–290.
- Horst Rinne: Taschenbuch der Statistik. 4. Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4, Teil B, Kap. 3.10.1: Eindimensionale Normalverteilung, S. 298–306.
- Jagdish K. Patel, Campbell R. Read: Handbook of the Normal Distribution (= Statistics:Textbooks and Monographs). Second edition, revised and expanded Auflage. Dekker, New York / Basel / Hong Kong 1966, ISBN 0-8247-9342-0.
- Stephen M. Stigler: The history of statistics: the measurement of uncertainty before 1900. Belknap Series. Harvard University Press, 1986. ISBN 978-0-674-40341-3.
- Paul J. Nahin: The Probability Integral. Its Origin, Its Importance, and Its Calculation. Springer, Cham 2023, ISBN 978-3-03138415-8.
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Anschauliche Erklärung der Normalverteilung mit interaktivem Graphen
- Darstellung mit Programmcode ( vom 7. Februar 2018 im Internet Archive) in Visual Basic Classic
- Online-Rechner Normalverteilung
- Santa Cruz Institute for Particle Physics: The Normal Approximation to the Binomial Distribution
- University of Connecticut: Normal approximation to the binomial
- Universität Uppsala: Approximating the Binomial Distribution by the Normal Distribution – Error and Accuracy
- University of Saskatchewan: The Normal Distribution as a Limit of Binomial Distributions
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Wolfgang Götze, Christel Deutschmann, Heike Link: Statistik. Lehr- und Übungsbuch mit Beispielen aus der Tourismus- und Verkehrswirtschaft. Oldenbourg, München 2002, ISBN 3-486-27233-0, S. 170 (eingeschränkte Vorschau in der Google-Buchsuche).
- ↑ Sur l'appréciation des documents statistiques, et en particulier sur l'appréciation des moyennes. In: Bulletin de la Commission Centrale des Statistique. Band 2, 1845, S. 205–286 (google.be).
- ↑ Francis Galton: Natural Inheritance. Macmillan, London 1889, S. 51, Normal Curve of Distribution.
- ↑ Herbert A. David: First (?) Occurence of Common Terms in Mathematical Statistics. In: The American Statistician. Band 49, Nr. 2, 1995, S. 121–133, JSTOR:2684625.
- ↑ Jeff Miller: Earliest Known Uses of Some of the Words of Probability & Statistics. Abgerufen am 27. September 2023.
- ↑ Stephen M. Stigler: Statistics on the Table. The History of Statistical Concepts and Methods. Harvard University Press, Cambridge / London 1999, ISBN 0-674-00979-7.
- ↑ Charles S. Peirce: On the theory of errors of observations. In: Report of the Superintendent of the U. S. Coast Survey for the Year Ending June 1870, Appendix no. 21. S. 200–224 (Wiederabgedruckt in S. M. Stigler (Hrsg.), American Contributions to Mathematical Statistics in the Ninteenth Century, 2 Bände. Arno Press, New York 1980).
- ↑ Francis Galton: Typical laws of heredity. In: Nature. Band 15, 1877, S. 492–495, 512–514, 532–533 (Auch publiziert in Proceedings of the Royal Institution of Great Britain. Band 8, 1877, S. 282–301).
- ↑ Wilhelm Lexis: Zur Theorie der Massenerscheinungen in der menschlichen Gesellschaft. Fr. Wagner’sche Buchhandlung, Freiburg i. B. 1877 (utlib.ee [PDF]).
- ↑ Bronstein: Taschenbuch der Mathematik. Kap. 16, Wahrscheinlichkeitsrechnung und mathematische Statistik.
- ↑ George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. 1988, S. 47.
- ↑ P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Normalveretilung, S. 289.
- ↑ Bronstein: Taschenbuch der Mathematik. Kap. 16, Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Harri Deutsch Verlag, 2000, ISBN 3-8171-2005-2, S. 779.
- ↑ Es gilt
- ↑ Es gilt
- ↑ Horst Rinne: Taschenbuch der Statistik. 2008, S. 302.
- ↑ Catherine Forbes et al. (Hrsg.): Statistical Distributions. 2011, S. 144.
- ↑ P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Entropie einer Zufallsgröße, S. 86.
- ↑ Mareke Arends: Epidemiologie bulimischer Symptomatik unter 10-Klässlern in der Stadt Halle. Dissertation. Martin-Luther-Universität Halle-Wittenberg, 2005, Tabelle 9, S. 30. urn:nbn:de:gbv:3-000008151
- ↑ H. Schmid, A. Huber: Measuring a Small Number of Samples and the 3σ Fallacy. (PDF; 1,6 MB) In: IEEE Solid-State Circuits Magazine, Band 6, Nr. 2, 2014, S. 52–58, doi:10.1109/MSSC.2014.2313714.
- ↑ George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee: Introduction to the Theory and Practice of Econometrics. 1988, S. 49.
- ↑ Michael Günther, Ansgar Jüngel: Finanzderivate mit MATLAB - Mathematische Modellierung und numerische Simulation. Vieweg+Teubner Verlag, 2003, ISBN 978-3-8348-0879-0, S. 115.
- ↑ Creating and Controlling a Random Number Stream in Matlab. Abgerufen am 16. September 2023.
- ↑ Octave Function Reference: randn. Abgerufen am 16. September 2023.
- ↑ William B. Jones, W. J. Thron: Continued Fractions: Analytic Theory and Applications. Addison-Wesley, 1980.