Diese Baustelle befindet sich fälschlicherweise im Artikelnamensraum. Bitte verschiebe die Seite oder entferne den Baustein {{Baustelle}} .
|
Dieser Artikel ist im Entstehen und noch nicht Bestandteil der freien Enzyklopädie Wikipedia.
Solltest du über eine Suchmaschine darauf gestoßen sein, bedenke, dass der Text noch unvollständig sein und Fehler oder ungeprüfte Aussagen enthalten kann. Wenn du Fragen zum Thema hast, nimm Kontakt mit den Autoren auf.
Als Tensorregression bezeichnet man in der Statistik ein Regressionsmodell basierend auf Tensoren, bei dem entweder der Regressor, der Regressand oder beides Tensoren sind. Tensorregressionen werden vor allem für hochdimensionale Daten verwendet, da Tensoren eine natürliche Darstellung solcher Daten sind. Bei hochdimensionalen Daten besitzt der Koeffiziententensor meistens einen viel höheren Rang als der Regressor und der Regressand, weshalb man - ähnlich wie bei der Regression mit reduziertem Rang - häufig die Annahme trifft, dass der Koeffiziententensor einen tiefen Rang basierend auf einer Tensorzerlegung besitzt. Bekannte solche Zerlegungen sind die Candecomp/Parafac-Zerlegung (CP), die Tucker-Zerlegung, die Tensor-Singulärwertzerlegung (t-SVD) und die Tensor-Train-Zerlegung (TT).
Tensorregression
Im Artikel wird die Tensorregression auf den reellen Zahlen mit dem Tensorprodukt
definiert, das Konzept lässt sich aber auch auf allgemeine Vektorräumen respektive Moduln definieren.
In der allgemeinen Form sind Tensordaten
gegeben, dann ist das Tensorregressionsmodell von der Form

wobei

Tensoren und
natürliche Zahlen sind.
Tensorzerlegungen
Für einen beliebigen Tensor
sucht man eine Zerlegung eines Tensors
, welche
am besten approximiert

wobei wir hier die Frobenius-Norm gewählt haben. Zwei populäre Wahlen sind die Candecomp/Parafec-Zerlegung (kurz CP-Zerlegung) und die Tucker-Zerlegung. Die Tucker-Zerlegung ist eine Form einer höher-dimensionalen Hauptkomponentenanalyse.
CP-Zerlegung
Sei
ein Tensor. Eine CP-Zerlegung für ein
ist eine Rang-
-Zerlegung von
in Elementartensoren

wobei
Vektoren sind. Die minimale Zahl

nennt man den Rang von
und er ist invariant unter Basiswechsel. Die Berechnung des Rangs ist jedoch NP-schwer.[1]
In der Praxis wählt man häufig normierte Vektoren

mit Gewichtsvektor
.
Tucker-Zerlegung
Die Tucker-Zerlegung zerlegt einen Tensor
in einen Kern-Tensor
und
Matrizen
mit

Die Parameter
nennt man Tucker-Ränge.
Regressionsmodelle
Eine Möglichkeit, solche Modelle zu definieren ist durch die Häufig werden dabei klassische Regressionsmodelle
wie die bayesische Regression, verallgemeinerten linearen Modelle (GLMs)
- ↑
Tamara G. Kold und Brett W. Bader: Tensor Decompositions and Applications. In: SIAM Review. Band 51, Nr. 3, 2009, S. 455–500, doi:10.1137/07070111X.