Diese Baustelle befindet sich fälschlicherweise im Artikelnamensraum. Bitte verschiebe die Seite oder entferne den Baustein {{Baustelle}} .
|
Als Tensorregression bezeichnet man in der Statistik ein Regressionsmodell basierend auf Tensoren, bei dem entweder der Regressor, der Regressand oder beides Tensoren sind. Tensorregressionen werden vor allem für hochdimensionale Daten verwendet, da Tensoren eine natürliche Darstellung solcher Daten sind. Bei hochdimensionalen Daten besitzt der Koeffiziententensor meistens einen viel höheren Rang als der Regressor und der Regressand, weshalb man - ähnlich wie bei der Regression mit reduziertem Rang - häufig die Annahme trifft, dass der Koeffiziententensor einen tiefen Rang basierend auf einer Tensorzerlegung besitzt. Bekannte solche Zerlegungen sind die Candecomp/Parafac-Zerlegung (CP), die Tucker-Zerlegung, die Tensor-Singulärwertzerlegung (t-SVD) und die Tensor-Train-Zerlegung (TT).
Tensorregression
Im Artikel wird die Tensorregression auf den reellen Zahlen mit dem Tensorprodukt definiert, das Konzept lässt sich aber auch auf allgemeine Vektorräumen respektive Moduln definieren.
In der allgemeinen Form sind Tensordaten gegeben, dann ist das Tensorregressionsmodell von der Form
wobei
Tensoren und natürliche Zahlen sind.
Tensorzerlegungen
Für einen beliebigen Tensor sucht man eine Zerlegung eines Tensors , welche am besten approximiert
wobei wir hier die Frobenius-Norm gewählt haben. Zwei populäre Wahlen sind die Candecomp/Parafec-Zerlegung (kurz CP-Zerlegung) und die Tucker-Zerlegung. Die Tucker-Zerlegung ist eine Form einer höher-dimensionalen Hauptkomponentenanalyse und wird auch HOSVD für englisch higher-order singular value decomposition genannt.
CP-Zerlegung
Sei ein Tensor. Eine CP-Zerlegung für ein ist eine Rang- -Zerlegung von in Elementartensoren
wobei Vektoren und Gewichte sind. Die minimale Zahl
nennt man den Rang von und er ist invariant unter Basiswechsel. Die Berechnung des Rangs ist jedoch NP-schwer.[1]
Tucker-Zerlegung
Die Tucker-Zerlegung (oder auch HOSVD) zerlegt einen Tensor in einen Kern-Tensor und Faktor-Matrizen mit
oder
wobei für und Vektoren sind und . Die Parameter nennt man Tucker-Ränge.
Regressionsmodelle
Verallgemeinerte lineare Tensorregression regression
Eine erste Verallgemeinerung der verallgemeinerten linearen Modelle stammt von Zhou et al(2013[2]), welche die CP-Zerlegung verwendeten.
Eine Möglichkeit, solche Modelle zu definieren ist durch die Häufig werden dabei klassische Regressionsmodelle
Einzelnachweise
- ↑ Tamara G. Kold und Brett W. Bader: Tensor Decompositions and Applications. In: SIAM Review. Band 51, Nr. 3, 2009, S. 455–500, doi:10.1137/07070111X.
- ↑ Zhou H, Li L, Zhu H.: Tensor Regression with Applications in Neuroimaging Data Analysis. In: J Am Stat Assoc. Band 108, Nr. 502, 2013, S. 540–552, doi:10.1080/01621459.2013.776499.