Zum Inhalt springen

Korrelation

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 18. Juni 2005 um 18:30 Uhr durch 80.185.7.43 (Diskussion) (Kreuzkorrelation). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die Korrelation ist eine Beziehung zwischen zwei oder mehr quantitativen statistischen Variablen. Es gibt positive und negative Korrelationen.

Ein Beispiel für eine positive Korrelation (je mehr, desto mehr) ist: Je mehr Futter, desto dickere Kühe.

Ein Beispiel für eine negative Korrelation (je mehr, desto weniger) ist: Je mehr Verkauf von Regenschirmen, desto weniger Verkauf von Sonnencreme.

Die Korrelation beschreibt nicht unbedingt eine Ursache-Wirkungs-Beziehung in die eine oder andere Richtung. So darf man über die Tatsache, dass man Feuerwehren oft bei Bränden findet, nicht folgern, dass sie sie legt. Die direkte Kausalität kann auch gänzlich fehlen. So kann es durchaus eine Korrelation zwischen dem Rückgang der Störche im Burgenland und einem Rückgang der Anzahl Neugeborener geben, diese Ereignisse haben aber nichts miteinander zu tun - weder bringen Störche Kinder noch umgekehrt. Das heißt, sie haben kausal allenfalls über eine dritte Größe etwas miteinander zu tun, etwa über die Verstädterung, die Nistplätze vernichtet.

Im Gegensatz zur Proportionalität ist die Korrelation nur ein stochastischer Zusammenhang. Es kann nur eine ungefähre Zu- oder Abnahme prognostiziert werden. Eine 200-prozentige Steigerung der Futtermenge kann eine Gewichtszunahme der Kühe von 10% oder auch von 20% bewirken. Eine Verdoppelung der Masse eines Hammers dagegen bewirkt bei gleicher Beschleunigung eine Verdoppelung der Kraft, da hier ein proportionaler Zusammenhang besteht.

Der verallgemeinerte mathematische Korrelationsbegriff

Die Korrelation ist mathematisch durch das Korrelationsintegral für Zeitfunktionen beschrieben:

Für komplexe Zeitfunktionen gilt:

Der Wert K und die Integralgrenzen müssen den entsprechenden Funktionen angepasst werden:

ist die zu analysierende Funktion, ist die Musterfunktion.

Musterfunktion

kann jede beliebige Musterfunktion sein. Sie sollte jedoch sinnvoll angepasst werden.

Das Korrelationsintegral geht je nach Musterfunktion über in:

Statistische Informationsverarbeitung

In der statistischen Informationsverarbeitung sind die Auto- und Kreuz- Korrelationsfunktionen von großer Bedeutung:

Autokorrelation

Die Autokorrelations-Funktionen beschreiben die Ähnlichkeit eines Signals bzw. einer Zeitfunktion mit sich selbst.

Definition

Aus Sicht der Signaltheorie muß man unterscheiden zwischen sogenannten Leistungssignalen (z. B. periodische Signale mit endlichen Signalwerten) und den Energiesignalen (z. B. Signale endlicher Länge).

Die Autokorrelationsfunktion (AKF) eines reellwertigen Leistungssignals berechnet sich zu

Bei Energiesignalen ergibt sich in ähnlicher Weise


Bei komplexwertigen Signalen ergibt sich:

bzw.

wobei der Stern die kongugiert komplexen Zahl bedeutet.

Finden von Signalperioden

Eine häufige Anwendung der AKF besteht darin, in stark verrauschten Signalen Periodizitäten zu finden, die nicht ohne weiteres ersichtlich sind.

Das hängt damit zusammen, daß die AKF zum einen die Signalperiode erhält und zum anderen das Rauschen im wesentlichen in eine Signalspitze an der Stelle umwandelt.

Allgemein ist es so, daß die AKF eines periodischen Signals selbst wieder ein periodisches Signal mit derselben Frequenz ist.

Insbesondere ist die AKF des Cosinussignals die Cosinusfunktion mit derselben Kreisfrequenz (Erhaltung der Signalperdiode). Zu beachten ist, daß hierbei die Phaseninformation verlorengegangen ist.

Die AKF von weißem Rauschen ist ein Dirac-Impuls an der Stelle ist. Liegt ein weißes Rauschen der Leistungdichte für die Frequenzen vor, so ergibt sich die AKF zu

Natürlich liegt in einem technischen System niemals exakt weißes Rauschen vor, die Signalspitze der AKF bei läßt sich praktisch aber auch bei gefärbtem Rauschen zeigen.

Signal-Rausch-Verhältnis

Da der Wert der AKF bei dem quadratischen Mittelwert (bei Leistungssignalen) bzw. der Signalenergie (bei Energiesignalen) entspricht, kann man durch Bilden der AKF relativ einfach das Signal-Rausch-Verhältnis SNR abschätzen.

Dazu teilt man die Höhe des Wertes , d. h. der Wert, den die AKF ohne Rauschen an der Stelle 0 hätte, durch die Höhe der "Rauschspitze". Beim Umrechnen der SNR in Dezibel muß man darauf achten, daß man und nicht verwendet. Das liegt daran, daß die AKF an der Stelle 0 Leistungs- bzw. Energiewerte und nicht Amplitudenwerte darstellt.

Normierung

Erwähnenswert ist, daß man die AKF häufig auch normiert angibt. Da die AKF ihren Maximalwert an der Stelle hat, verwendet man diesen Wert zur Normierung und schreibt:

Der Betrag dieser normierten AKF kann höchstens 1 werden.

Kreuzkorrelation

Die Kreuzkorrelations-Funktion hingegen beschreibt die Ähnlichkeit eines Signals bzw. einer Zeitfunktion mit einer anderen Funktion.

Definition

Ebenso wie bei der Autokorrelationsfunktion unterscheidet man wieder zwischen Leistungssignalen und Energiesignalen.

Die Kreuzkorrelationsfunktion (KKF) eines reellwertigen Leistungssignals berechnet sich zu

Bei Energiesignalen ergibt sich


Bei der Erweiterung zu komplexen Signalen wird das Konjugiert-Komplexe von y verwendet

bzw.


Ähnlichkeit zweier Signale

Die Ähnlichkeit zweier Signale soll zunächst anhand zweier Energiesignale beschrieben werden.

Die Signalenergie eines reellwertigen Signals berechnet sich bekanntermaßen zu:

Betrachtet man zusammengesetzte Signale , so führt das auf die Gleichung

Fehler beim Parsen (SVG (MathML kann über ein Browser-Plugin aktiviert werden): Ungültige Antwort („Math extension cannot connect to Restbase.“) von Server „http://localhost:6011/de.wikipedia.org/v1/“:): {\displaystyle E_s = \int \limits_{-\infty}^{\infty} {s^2(t) dt} = \int \limits_{-\infty}^{\infty} {\left [ x(t) + y(t) \right ] dt} = \begin{matrix} \underbrace{\int_{-\infty}^{\infty} {x^2(t) dt}} \\ E_x \end{matrix} + \begin{matrix} \underbrace{\int_{-\infty}^{\infty} {y^2(t) dt}} \\ E_y \end{matrix} + \begin{matrix} \underbrace{\int_{-\infty}^{\infty} {x(t) \cdot y(t) dt}} \\ E_xy \end{matrix}. }

ist die Energie von x, und ist die Energie von y. Die Größe heißt Kreuzenergie. Sie kann positiv, negativ oder null sein.

Es ist zweckmäßig, die Kreuzenergie mit den Signalenergien über die folgende Gleichung in Beziehung zu setzen:

Der Faktor ist der sogenannte Korrelationsfaktor, auch Korrelationskoeffizient genannt. Für ihn gilt stets: , was mit Hilfe der Cauchy-Schwarzsche-Ungleichung aus der Analysis bewiesen werden kann.

Die Energie des Gesamtsignals hängt nach den eben gemachten Ausführungen von der Signalenergie von x, der Signalenergie von y und dem Korrelationsfaktor ab.

Der Korrelationsfaktor hat den Wert , wenn man das Signal mit dem Signal korreliert. Man nennt das Signal in diesem Fall gleichläufig. Die Signalenergie des Gesamtsignals ist in diesem Fall maximal.

Der Korrelationsfaktor hat den Wert , wenn man das Signal mit dem Signal korreliert. Man nennt das Signal in diesem Fall gegenläufig. Die Signalenergie des Gesamtsignals ist in diesem Fall minimal.

Eine Besonderheit liegt vor, wenn der Korrelationsfaktor den Wert annimmt. Man nennt beide Signale dann unkorreliert.

Der Korrelationsfaktor ist -- wie an den Beispielen gezeigt -- ein Maß dafür, wie ähnlich sich zwei Signale sind.


Bei Leistungssignalen finden sich ähnliche Zusammenhänge. Für die Signalleistung eines Signals ergibt sich:

Fehler beim Parsen (Konvertierungsfehler. Der Server („/media/api/rest_“) hat berichtet: „Cannot get mml. TeX parse error: \limits is allowed only on operators“): {\displaystyle P_{s}=\lim \limits _{T\to \infty }{{\frac {1}{2T}}\int _{\limits }_{-T}^{T}s^{2}(t)dt}<math>=====FindenvonSignalverschiebungen=====BerechnetmandieKreuzkorrelationsfunktioneinesSignals<math>x(t)} mit dem zeitverschobenen Signal Fehler beim Parsen (Syntaxfehler): {\displaystyle y(t)=x(t-t_0)<math>, so erhält man einen Kurvenverlauf, der stark dem der Autokorrelationsfunktion gleicht. Anstatt eines Maximums an der Stelle <math>\tau = 0} hat die Kreuzkorrelationsfunktion jedoch ihr Maximum an .

Anwendungen

Die Korrelation wird in verschiedenen technischen und wissenschaftlichen Bereichen praktisch eingesetzt.

Anwendung bei Kapitalanlagen

Der Korrelationsbegriff ist von erheblicher Bedeutung bei Kapitalanlagen. Es gilt: Das Gesamtrisiko des gesamten Portfolios ist umso geringer je geringer die einzelnen Anlagen (Assets) miteinander korrelieren.

Beispiel für positive Korrelation: Besteht ein Portfolio nur aus vielen einzelnen Aktien, so führt der Kursrückgang von Aktie 1 auch zum Wertverlust von Aktie 2 und auch Aktie 3 in einem bestimmten Verhältnis. Besteht das Portfolio jeweils zur Hälfte aus Aktien und Renten, so ist der Verlust geringer, da nur eine geringfügige Korrelation Aktien-Renten besteht.

Allerdings gibt es auch (negative) Korrelationen, wenn auch geringere, bezüglich Aktie-Rente. Ist der Aktienmarkt schwach, so wird tendenziell in Renten investiert (Kapitalflucht in den sicheren Hafen). Die Rentenkurse steigen. Dies fängt jedoch nicht den Komplettverlust im Aktienbereich auf. Daher ist es sinnvoll noch in weitere Anlagen zu diversifizieren als nur in Renten und Aktien (siehe auch Diversifikation). Die Risikominderung durch Diversifikation oder Investition in negativ korrelierte Assets bezeichnet man als Hedging. Dem ist allerdings eine natürliche Grenze dadurch gegeben, dass, wenn zwei Assets negativ korreliert sind, ein dritter nicht mit beiden negativ korreliert sein kann, sondern nur mit dem einen negativ in dem Maße, in dem er mit dem anderen positiv korreliert ist.

Die ideale Diversifikation ist so umfassend, dass keine Korrelationen zwischen den einzelnen Assets existieren. Erwirtschaften zudem die einzelnen, nicht korrelierenden Assets noch eine maximale Rendite, so ergibt sich das ideale, jedoch in Realität nie existierende Portfolio.

Reduktion der Korrelation des Gesamtportfolios im Verhältnis zu seinen Einzelanlagen, verbessert nach dem Markowitz-Modell das Rendite-Risiko-Verhältnis. Auf langfristiger Basis wird damit prinzipiell eine höhere Rendite bei geringerem Risiko erzielt (siehe auch Portfoliotheorie).

Anwendung in der Softwaretechnik

Ein Korrelationstest bezeichnet in der Softwaretechnik ein Verfahren, in dem nicht nur einzelne Parameter einer Funktion auf Plausibilität (zum Beispiel in Datentyp oder Wertebereich) geprüft werden, sondern auch Kombinationen dieser Parameter berücksichtigt werden. Es ist möglich, dass zwar jeder Parameter für sich einen gültigen Wert besitzt, diese in Kombination jedoch ein fehlerhaftes Verhalten der zu testenden Funktion hervorrufen, nämlich wenn diese Parameter durch die Funktion korreliert werden.

Beispiel: Ein rechteckiges Objekt soll auf dem Bildschirm dargestellt werden. Hierzu existiert eine Funktion, die in den Parametern X,Y,SX,SY die Dimension des Rechtecks entgegennimmt.

  • Parameter X gibt die X-Position der linken oberen Ecke an. Es muss geprüft werden, ob X im gültigen Anzeigebereich liegt.
  • Parameter SX gibt die X-Kantenlänge (Breite des Rechteckes) an. Hier muss zunächst geprüft werden, ob SX die zulässige Anzeigebreite nicht überschreitet.
  • Bei einem Korrelationstest wird nun zusätzlich geprüft ob, X + SX im gültigen Wertebereich liegt.

Anwendung in der Bildverarbeitung

In der Bildverarbeitung nutzt man Korrelationsfunktionen unter anderem zur genauen Lokalisierung eines Musters (der Musterfunktion im Sinne der mathematischen Korrelation) in einem Bild. Dieses Verfahren kann z.B. zur Auswertung von Stereobildpaaren verwendet werden. Um die räumliche Koordinate eines Punktes berechnen zu können muss eine eindeutige Zuordung von Objekten im linken Bild zu den Objekten im rechten Bild existieren. Dazu nimmt man einen kleinen Ausschnitt aus dem einen Bild - das Muster - und korreliert ihn zweidimensional mit dem anderen Bild. Die so erhaltenen Koordinaten eines Objektpunktes oder -merkmals im linken und rechten Bild kann man mit Methoden der Photogrammetrie in räumliche Koordinaten umwandeln.

Quantifizierung der Korrelation

Der Ausdruck Korrelation wird oft auf spezielle Weise auf den statistischen Zusammenhang zweier Ereignisse bezogen. Zur Quantifizierung der statistischen Korrelation dienen unter anderem der Korrelationskoeffizient oder – aus der Informationstheorie stammend – die Transinformation und die Kullback-Leibler Distanz.

Siehe auch

Vorlage:Wiktionary1