Zum Inhalt springen

„Wiener-Chintschin-Theorem“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[ungesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
Fabian R (Diskussion | Beiträge)
Formeln und Anwendung erläutert: -QS
Linkvorschlag-Funktion: 1 Link hinzugefügt.
 
(130 dazwischenliegende Versionen von 57 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
Das '''Wiener-Chintschin-Theorem''' (auch '''Wiener-Chintchin-Kriterium''' oder '''Chintschin-Kolmogorow-Theorem''', nach [[Alexander Jakowlewitsch Chintschin|Alexander Chintschin]]<ref>Alexander Chintchin: ''Korrelationstheorie der stationären stochastischen Prozesse.'' In: ''Mathematische Annalen'' Band 109, 1934. Als „Satz von Chintchin über die Korrelationsfunktion“ bewiesen z.&nbsp;B. in Gnedenko: ''Einführung in die Wahrscheinlichkeitstheorie.'' Verlag Harri Deutsch 1978, Seite 310.</ref>, [[Norbert Wiener]]<ref>Norbert Wiener: ''Generalized harmonic analysis.'' In: ''Acta Mathematica'' Band 55, 1930, sowie in seinem Buch ''Extrapolation, Intrapolation and Smoothing of Stationary Time Series.'' MIT 1949. Bekannt wurde die diskrete Version auch durch die Artikel von [[Norman Levinson]], Journal of Mathematical Physics Bd. 25, 1957, S. 261, Bd. 20, S. 110</ref> und [[Andrei Nikolajewitsch Kolmogorow]]) ist ein Satz in der [[Stochastik]] und [[Signalverarbeitung]]. Er besagt, dass die [[spektrale Leistungsdichte]] eines [[Stationärer stochastischer Prozess|stationären]]<ref>Eine Zufallsprozess (eine Zufallsfunktion) <math>x</math> heißt ''stationär'', wenn die [[Kovarianz (Stochastik)|Kovarianz]] <math>E\left(x(t)x^*(t-\tau)\right)</math> für alle Zeitpunkte <math>t</math> gleich ist. Genauer handelt es sich um stationäre Zufallsprozesse ''im weiteren Sinn"''(Wide Sense Stationary Random Processes).</ref> [[stochastischer Prozess|Zufallsprozesses]] die [[Fourier-Transformation|Fourier-Transformierte]] der korrespondierenden [[Autokorrelation]]sfunktion ist.
Das '''Wiener–Khintchine-Theorem''', auch bekannt als '''Wiener–Khinchin-Theorem''' und '''Khinchin–Kolmogorov-Theorem''' besagt, dass die [[spektrale Leistungsdichte]] eines „[[Stationarität|wide-sense-stationary random process]]“ die [[Fourier-Transformation]] der korrespondierenden [[Autokorrelation]]sfunktionen ist.


Der Satz gilt auch trivialerweise, d.&nbsp;h. durch Einsetzen der Fourier-Transformierten, die in diesem Fall anders als bei Zufallsprozess-Signalen existieren, für die [[Stetige Funktion|stetigen Funktionen]] [[Periodische Funktion|periodischer Signale]], und kann somit auf ein durch [[Rauschen (Physik)|Rauschen]] gestörtes periodisches Signal angewandt werden.
Für zeitkontinuierliche Signale hat das Theorem die Gestalt:
:<math>
S_{xx}(f)=\int_{-\infty}^\infty r_{xx}(\tau)e^{-j2\pi f\tau} d\tau
</math>
mit der Autokorrelationsfunktion: <math>r_{xx}(\tau) = E\left[x(t)x^*(t-\tau)\right]</math>, ausgedrückt durch den [[Erwartungswert]] und mit dem Leistungsdichtespektrum <math>
S_{xx}(f)</math> der Funktion <math>x(t)</math>.


== Formulierung in der Signalverarbeitung ==
Im falle zeitdiskreter Signale hat das Wiener-Khinchine Theorem eine ähnliche Form:
Für zeitkontinuierliche Signale hat das Theorem die Gestalt (<math>\mathrm{j}</math> steht für die [[imaginäre Einheit]], <math>f</math> für die [[Frequenz]]):
:<math>
S_{xx}(f)=\sum_{k=-\infty}^\infty r_{xx}(k)e^{-j2\pi k f}
</math>
hier mit der Autokerrlationsfunktion <math>r_{xx}(k) = E\left[x(n)x^*(n-k)\right]</math> und dem Leistungsdichtespektrum <math>S_{xx}(f)</math> von <math>x(n)</math>.
Es ist benannt nach [[Aleksandr Yakovlevich Khinchin]], [[Norbert Wiener]] und [[Andrey Kolmogorov]].


:<math>S_{xx}(f)=\int_{-\infty}^\infty r_{xx}(\tau)\mathrm{e}^{-\mathrm{j}2\pi f\tau} d\tau</math>
<!--
Continuous case:
:<math>
S_{xx}(f)=\int_{-\infty}^\infty r_{xx}(\tau)e^{-j2\pi f\tau} d\tau
</math>
where


mit der Autokorrelationsfunktion:
:<math>r_{xx}(\tau) = E\left[x(t)x^*(t-\tau)\right]</math>


:<math>r_{xx}(\tau) = E\left(x(t) \cdot x^*(t+\tau)\right) = \lim_{T_F \to \infty} \frac{1}{T_F}\int_{-T_F/2}^{T_F/2} x^*(t) \cdot x(t + \tau) dt</math>
is the autocorrelation function defined in terms of statistical expectation, and where


Dabei ist <math>E</math> der [[Erwartungswert]] des Produktes <math>x(t) \cdot x^*(t+\tau)</math>.
:<math>S_{xx}(f)</math>


Die [[spektrale Leistungsdichte]] <math>\,S_{xx}(f)</math> der Funktion <math>\,x(t)</math> ist außerdem bei Existenz der Fourier-Transformierten <math>\hat x(f)</math> des Signals <math>x(t)</math> definiert als:
is the power spectral density of the function <math>x(t)</math>. Note that the autocorrelation function is defined in terms of the expected value of a product, and that the Fourier transform of <math>x(t)</math> does not exist, in general, because stationary random functions are not square integrable.


:<math>S_{xx}(f) = {\left| \hat x(f) \right|}^2</math>
The asterisk denotes complex conjugate, and can be omitted if the random process is real-valued.


Für „Rauschsignale“ existiert die Fourier-Transformierte <math>\hat x(f)</math> allerdings im Allgemeinen nicht. Der Name spektrale Leistungsdichte (PSD, Power Spectral Density) kommt daher, dass das Signal <math>x(t)</math> häufig eine Spannung ist und die Autokorrelationsfunktion dann eine Energie liefert. „Spektrale Dichte“ besagt, dass die Leistung als Funktion der Frequenz pro Frequenzintervall angegeben wird. Die PSD erlaubt Aussagen über das Vorliegen von Periodizitäten in verrauschten Signalen. Nach dem Wiener-Chintchin-Theorem kann die PSD aus der Autokorrelationsfunktion gewonnen werden. Für die Detektion periodischer Signale im Rauschhintergrund wurde die Autokorrelationsfunktion allerdings schon früher angewandt, z.&nbsp;B. von [[George Udny Yule]] in den 1920er Jahren.
Discrete case:
:<math>
S_{xx}(f)=\sum_{k=-\infty}^\infty r_{xx}(k)e^{-j2\pi k f}
</math>
where <math>r_{xx}(k) = E\left[x(n)x^*(n-k)\right]</math> and where <math>S_{xx}(f)</math> is the power spectral density of the function with impulse values <math>x(n)</math>. This spectral density of the discrete sequence is periodic in the frequency domain.


Umgekehrt ergibt sich auch die Autokorrelationsfunktion als Fourier-Rücktransformierte der spektralen Leistungsdichte:
(See Chapter 6 of Digital and Analog Communications Systems by Leon W. Couch II, Sixth Edition, Prentice Hall, New Jersey, 2001, pp. 406-409)
--->


:<math>r_{xx} (\tau)= \int_{-\infty}^\infty S_{xx}(f)\mathrm{e}^{\mathrm{j}2\pi f\tau} d f</math>
==Anwendungen ==
Das Theorem erlaubt es, linearen zeitinvarianten Systemen zu untersuchen, wenn deren Ein- und Ausgangssignale nicht quadratintegrabel sind und somit keine Fouriertransformierten existieren. Nach dem Theorem ist die Autokorrelationsfunktion des Ausgangssignals gleich der des Eingangssignals multipliziert mit dem Betragsquadrat der Impulsantwort des Systems.


'''Bemerkung''': bei Formulierung mit der Kreisfrequenz <math>\,\omega = 2 \pi f </math> lauten die entsprechenden Formeln:
<!--
== Abweichende Definitionen ==


:<math>S_{xx}(\omega)= \int_{-\infty}^{+\infty} r_{xx}(\tau)\mathrm{e}^{-\mathrm{j}\omega\tau} d\tau </math>


:<math>r_{xx} (\tau)= \frac{1}{2 \pi}\int_{-\infty}^{+\infty} S_{xx}(\omega)\mathrm{e}^{\mathrm{j} \omega\tau} d \omega </math>
The theorem is useful for analyzing [[LTI system theory|linear time-invariant systems]] when the inputs and outputs are not square integrable, so their Fourier transforms do not exist. A corollary is that the Fourier transform of the autocorrelation function of the output of an LTI system is equal to the product of the Fourier transform of the autocorrelation function of the input of the system times the squared magnitude of the Fourier transform of the system impulse response. This works even when the Fourier transforms of the input and output signals do not exist because these signals are not square integrable, so the system inputs and outputs can not be directly related by the Fourier transform of the impulse response.


Das ist die eigentlich übliche Form der Fourier-Transformation, hier wird wie in der [[Signaltheorie]] eine Formulierung ohne Kreisfrequenz gewählt (siehe [[Fourier-Transformation]]).
Since the Fourier transform of the autocorrelation function of a signal is the power spectrum of the signal, this corollary is equivalent to saying that the power spectrum of the output is equal to the power spectrum of the input times the power transfer function.


Berechnungen im Frequenzraum sind über dieses Theorem gegen solche im Zeitraum austauschbar, ähnlich wie bei dem [[Lp-Ergodensatz|''L''<sup>''p''</sup>-Ergodensatz]] und dem [[Individueller Ergodensatz|individuellen Ergodensatz]] bzw. der [[Ergodenhypothese]], die bei typischen Systemen der statistischen Mechanik die Vertauschbarkeit von Zeit- und Ensemblemittel aussagt.
==Discrepancy of definition==


Im Falle zeitdiskreter Signale (einer Zeitreihe mit N Termen) hat das Wiener-Chintschin-Theorem eine ähnliche Form:
By the definitions involving infinite integrals in the articles on [[spectral density]] and [[autocorrelation]], the Wiener-Khintchine theorem is a simple Fourier transform pair, trivially provable for any square integrable function, i.e. for functions whose Fourier transforms exist. More usefully, and historically, the theorem applies to [[stationary process|wide-sense-stationary random processes]], signals whose Fourier transforms do not exist, using the definition of autocorrelation function in terms of expected value rather than an infinite integral. This trivialization of the Wiener-Khintchine theorem is commonplace in modern technical literature, and obscures the contributions of [[Aleksandr Yakovlevich Khinchin]], [[Norbert Wiener]], and [[Andrey Kolmogorov]].


:<math>S_{xx}(f)=\sum_{k=-\infty}^\infty r_{xx}(k)\mathrm{e}^{-\mathrm{j}2\pi k f}</math>
[[Category:Fourier analysis]]

[[Category:Signal processing]]
Die Summe wird dabei in Anwendungen auf endlich viele (<math>p < N</math>) Terme begrenzt.
[[Category:Norbert Wiener]]

-->
Weiterhin ist <math>r_{xx}(k) = E\left(x^*(n)x(n-k)\right) = \frac{1}{N} \sum_n^N x^*(n) x (n-k)</math> die Autokorrelationsfunktion und <math>\,S_{xx}(f)</math> das Leistungsdichtespektrum von <math>\,x(n)</math>.
[[en:Wiener–Khinchin theorem]]

== Mathematische Formulierung ==
<math>\phi (u)</math> ist die [[charakteristische Funktion (Stochastik)|charakteristische Funktion]] einer [[Wahrscheinlichkeitsverteilung]] mit [[Dichtefunktion]] <math>f</math> genau dann, falls es eine Funktion <math>x(t)</math> gibt mit

:<math>{\Vert x \Vert}^2 = \int_{-\infty}^\infty x(t)x^*(t) dt = 1</math>,

so dass

:<math>\phi (u) = \int_{-\infty}^\infty x (t) x^*(t+u) dt</math>

Die Wahrscheinlichkeitsverteilung <math>f</math> ist dann gegeben durch

::<math>f = |\hat x|^2</math>

mit der charakteristischen Funktion <math>\hat x</math> von <math>x</math>; letztere entspricht bis auf Vorfaktoren der Fourier-Transformation von <math>x</math>.

Das Theorem ist ein Spezialfall der Plancherel-Formel<ref>W. Feller ''Introduction to probability theory'', Bd. 2, S. 640</ref> (auch [[Satz von Plancherel]] genannt).

Oder in der ursprünglichen Formulierung von Chintchin:

:<math>R(u) = \int_{-\infty}^\infty x (t) x^*(t + u) \, dt</math>

ist dann und nur dann die Korrelationsfunktion eines reellen stationären Zufallsprozesses <math>x(t)</math>, falls

:<math>R(u) = \int_{-\infty}^\infty \cos (ut) \, dF(t)</math>

mit einer [[Verteilungsfunktion]] <math>F(t)</math>.

== Anwendung in der Systemanalyse ==
Das Theorem erlaubt es, [[Lineares zeitinvariantes System|lineare zeitinvariante Systeme]] (LTI-Systeme), wie [[Integrierter Schaltkreis|elektrische Schaltkreise]] mit [[Elektrisches_Bauelement #Lineare und nichtlineare Bauelemente|linearen Bauelementen]], zu untersuchen, wenn deren Ein- und Ausgangssignale ''nicht'' [[quadratintegrabel]] sind und somit keine Fourier-Transformierten existieren, wie im Fall zufälliger Signale (Rauschen).

Nach der Theorie der LTI-Systeme ist die Fourier-Transformierte der Autokorrelationsfunktion des Ausgangssignals nämlich gleich derjenigen des Eingangssignals multipliziert mit dem [[Betragsquadrat]] des [[Frequenzgang]]es, also der Fourier-Transformierten der [[Impulsantwort]] des Systems.

Nach dem Wiener-Chintchin-Theorem ist die Fourier-Transformierte der Autokorrelationsfunktion gleich der spektralen Leistungsdichte, und somit die Leistungsdichte des Ausgangssignals gleich der Leistungsdichte des Eingangssignals, multipliziert mit der Leistungs-[[Übertragungsfunktion]], analog zum Fall periodischer Signale bei&nbsp;LTIs.

== Siehe auch ==
* [[Kohärenz (Physik)#Wiener-Chintschin-Theorem]]

== Weblinks ==
* Bernd Pompe: {{Webarchiv | url=http://www2.physik.uni-greifswald.de/~pompe/SCRIPTS/vss.pdf | wayback=20070625094110| text=''Verfahren der stochastischen Signalverarbeitung.''}} (PDF-Datei; 2,0&nbsp;MB)
* Alexander Chintchin: [http://gdz.sub.uni-goettingen.de/no_cache/dms/load/img/?IDDOC=37869 ''Korrelationstheorie der stationären stochastischen Prozesse.''] In: ''Mathematische Annalen'' Band 109, 1934.

== Anmerkungen ==
<references />

[[Kategorie:Satz (Stochastik)]]
[[Kategorie:Signalverarbeitung]]

Aktuelle Version vom 30. Mai 2025, 22:58 Uhr

Das Wiener-Chintschin-Theorem (auch Wiener-Chintchin-Kriterium oder Chintschin-Kolmogorow-Theorem, nach Alexander Chintschin[1], Norbert Wiener[2] und Andrei Nikolajewitsch Kolmogorow) ist ein Satz in der Stochastik und Signalverarbeitung. Er besagt, dass die spektrale Leistungsdichte eines stationären[3] Zufallsprozesses die Fourier-Transformierte der korrespondierenden Autokorrelationsfunktion ist.

Der Satz gilt auch trivialerweise, d. h. durch Einsetzen der Fourier-Transformierten, die in diesem Fall anders als bei Zufallsprozess-Signalen existieren, für die stetigen Funktionen periodischer Signale, und kann somit auf ein durch Rauschen gestörtes periodisches Signal angewandt werden.

Formulierung in der Signalverarbeitung

[Bearbeiten | Quelltext bearbeiten]

Für zeitkontinuierliche Signale hat das Theorem die Gestalt ( steht für die imaginäre Einheit, für die Frequenz):

mit der Autokorrelationsfunktion:

Dabei ist der Erwartungswert des Produktes .

Die spektrale Leistungsdichte der Funktion ist außerdem bei Existenz der Fourier-Transformierten des Signals definiert als:

Für „Rauschsignale“ existiert die Fourier-Transformierte allerdings im Allgemeinen nicht. Der Name spektrale Leistungsdichte (PSD, Power Spectral Density) kommt daher, dass das Signal häufig eine Spannung ist und die Autokorrelationsfunktion dann eine Energie liefert. „Spektrale Dichte“ besagt, dass die Leistung als Funktion der Frequenz pro Frequenzintervall angegeben wird. Die PSD erlaubt Aussagen über das Vorliegen von Periodizitäten in verrauschten Signalen. Nach dem Wiener-Chintchin-Theorem kann die PSD aus der Autokorrelationsfunktion gewonnen werden. Für die Detektion periodischer Signale im Rauschhintergrund wurde die Autokorrelationsfunktion allerdings schon früher angewandt, z. B. von George Udny Yule in den 1920er Jahren.

Umgekehrt ergibt sich auch die Autokorrelationsfunktion als Fourier-Rücktransformierte der spektralen Leistungsdichte:

Bemerkung: bei Formulierung mit der Kreisfrequenz lauten die entsprechenden Formeln:

Das ist die eigentlich übliche Form der Fourier-Transformation, hier wird wie in der Signaltheorie eine Formulierung ohne Kreisfrequenz gewählt (siehe Fourier-Transformation).

Berechnungen im Frequenzraum sind über dieses Theorem gegen solche im Zeitraum austauschbar, ähnlich wie bei dem Lp-Ergodensatz und dem individuellen Ergodensatz bzw. der Ergodenhypothese, die bei typischen Systemen der statistischen Mechanik die Vertauschbarkeit von Zeit- und Ensemblemittel aussagt.

Im Falle zeitdiskreter Signale (einer Zeitreihe mit N Termen) hat das Wiener-Chintschin-Theorem eine ähnliche Form:

Die Summe wird dabei in Anwendungen auf endlich viele () Terme begrenzt.

Weiterhin ist die Autokorrelationsfunktion und das Leistungsdichtespektrum von .

Mathematische Formulierung

[Bearbeiten | Quelltext bearbeiten]

ist die charakteristische Funktion einer Wahrscheinlichkeitsverteilung mit Dichtefunktion genau dann, falls es eine Funktion gibt mit

,

so dass

Die Wahrscheinlichkeitsverteilung ist dann gegeben durch

mit der charakteristischen Funktion von ; letztere entspricht bis auf Vorfaktoren der Fourier-Transformation von .

Das Theorem ist ein Spezialfall der Plancherel-Formel[4] (auch Satz von Plancherel genannt).

Oder in der ursprünglichen Formulierung von Chintchin:

ist dann und nur dann die Korrelationsfunktion eines reellen stationären Zufallsprozesses , falls

mit einer Verteilungsfunktion .

Anwendung in der Systemanalyse

[Bearbeiten | Quelltext bearbeiten]

Das Theorem erlaubt es, lineare zeitinvariante Systeme (LTI-Systeme), wie elektrische Schaltkreise mit linearen Bauelementen, zu untersuchen, wenn deren Ein- und Ausgangssignale nicht quadratintegrabel sind und somit keine Fourier-Transformierten existieren, wie im Fall zufälliger Signale (Rauschen).

Nach der Theorie der LTI-Systeme ist die Fourier-Transformierte der Autokorrelationsfunktion des Ausgangssignals nämlich gleich derjenigen des Eingangssignals multipliziert mit dem Betragsquadrat des Frequenzganges, also der Fourier-Transformierten der Impulsantwort des Systems.

Nach dem Wiener-Chintchin-Theorem ist die Fourier-Transformierte der Autokorrelationsfunktion gleich der spektralen Leistungsdichte, und somit die Leistungsdichte des Ausgangssignals gleich der Leistungsdichte des Eingangssignals, multipliziert mit der Leistungs-Übertragungsfunktion, analog zum Fall periodischer Signale bei LTIs.

  1. Alexander Chintchin: Korrelationstheorie der stationären stochastischen Prozesse. In: Mathematische Annalen Band 109, 1934. Als „Satz von Chintchin über die Korrelationsfunktion“ bewiesen z. B. in Gnedenko: Einführung in die Wahrscheinlichkeitstheorie. Verlag Harri Deutsch 1978, Seite 310.
  2. Norbert Wiener: Generalized harmonic analysis. In: Acta Mathematica Band 55, 1930, sowie in seinem Buch Extrapolation, Intrapolation and Smoothing of Stationary Time Series. MIT 1949. Bekannt wurde die diskrete Version auch durch die Artikel von Norman Levinson, Journal of Mathematical Physics Bd. 25, 1957, S. 261, Bd. 20, S. 110
  3. Eine Zufallsprozess (eine Zufallsfunktion) heißt stationär, wenn die Kovarianz für alle Zeitpunkte gleich ist. Genauer handelt es sich um stationäre Zufallsprozesse im weiteren Sinn"(Wide Sense Stationary Random Processes).
  4. W. Feller Introduction to probability theory, Bd. 2, S. 640