Als Tensorregression bezeichnet man in der Statistik ein Regressionsmodell basierend auf Tensoren. Bei einer solchen Regression kann entweder der Regressor
, der Regressand
oder beide Tensoren sein. Tensorregressionen werden vor allem für hochdimensionale Daten verwendet, da Tensoren eine natürliche Darstellung solcher Daten sind.
Ein Anwendungsbeispiel für die Tensorregression liegt im Neuroimaging, wo man zum Beispiel die Hirnaktivität einer Maus misst, welche durch ein Labyrinth rennt. Dabei werden Hunderte von Neuronen über einen längeren Zeitraum gemessen, was zu sehr schnell wachsenden Daten führt.
Bei hochdimensionalen Daten besitzt der Koeffiziententensor meistens einen viel höheren Rang als der Regressor und der Regressand, weshalb man - ähnlich wie bei der Regression mit reduziertem Rang - häufig die Annahme trifft, dass der Koeffiziententensor einen tiefen Rang basierend auf einer Tensorzerlegung besitzt. Bekannte solche Zerlegungen sind die Candecomp/Parafac-Zerlegung (CP), die Tucker-Zerlegung, die Tensor-Singulärwertzerlegung (t-SVD) und die Tensor-Train-Zerlegung (TT).
Im Artikel wird eine Tensor-Verallgemeinerung der verallgemeinerten linearen Modelle (GLM) behandelt, welche 2013 von Hua Zhou et al.[1] mit der Candecomp/Parafec-Zerlegung eingeführt wurde und machmal als CP-GLTR (englisch generalized linear tensor regression) abgekürzt wird.
Tensorregression
Im Artikel wird die Tensorregression auf den reellen Zahlen mit dem Tensorprodukt
definiert, das Konzept lässt sich aber auch auf allgemeine Vektorräumen respektive Moduln definieren.
In der allgemeinen Form sind Tensordaten
gegeben, dann ist das Tensorregressionsmodell von der Form

wobei

Tensoren und
natürliche Zahlen sind.
Durch Konkatenation
, lässt sich das auch kompakter als

hinschreiben.[2]
Tensorzerlegungen
Für einen beliebigen Tensor
sucht man einen Tensor
mit einer niedrigen Rang-Zerlegung, welche
am besten approximiert, welches zu einem Optimierungsproblem der Form

führt, wobei wir hier die Frobenius-Norm gewählt haben. Zwei populäre Wahlen für eine solche Zerlegung sind die Candecomp/Parafec-Zerlegung (kurz CP-Zerlegung) und die Tucker-Zerlegung. Die Tucker-Zerlegung ist eine Form einer höher-dimensionalen Hauptkomponentenanalyse und wird auch HOSVD für englisch higher-order singular value decomposition genannt.
CP-Zerlegung
Sei
ein Tensor. Eine CP-Zerlegung für ein
ist eine Rang-
-Zerlegung von
in Elementartensoren

wobei
Vektoren und
Gewichte sind. Die minimale Zahl

nennt man den Rang von
und er ist invariant unter Basiswechsel. Die Berechnung des Rangs ist jedoch NP-schwer.[3]
Tucker-Zerlegung
Die Tucker-Zerlegung (oder auch HOSVD) zerlegt einen Tensor
in einen Kern-Tensor
und
Faktor-Matrizen
mit

oder

wobei
für
und
Vektoren sind und
. Die Parameter
nennt man Tucker-Ränge.
Regressionsmodelle
Sei nun
wie oben, das heißt
.
Verallgemeinerte lineare Tensorregression regression mit CP-Zerlegung
Die von Zhou et al. [1] betrachtete Verallgemeinerung der verallgemeinerten linearen Modelle ist die Kopplungsfunktion

wobei der Regressor
und
ein Tensor sind,
ein Vektor-Regressor und
der y-Achsenabschnitt ist. Sie nahmen nun an, dass für
eine CP-Zerlegung mit Rang
existiert

Dies kann nun mit Hilfe des Khatri-Rao-Produkt
umgeschriebenen werden zu

wobei
und
ein Vektor aus
Einsen ist.[1]
Literatur
- Yipeng Liu, Jiani Liu, Zhen Long und Ce Zhu: Tensor Regression. In: Foundations and Trends® in Machine Learning. Band 14, Nr. 4, 2021, S. 379–565, doi:10.1561/2200000087.
Einzelnachweise
- ↑ a b c Hua Zhou, Lexin Li L und Hongtu Zhu: Tensor Regression with Applications in Neuroimaging Data Analysis. In: J Am Stat Assoc. Band 108, Nr. 502, 2013, S. 540–552, doi:10.1080/01621459.2013.776499.
- ↑ Liu, Yipeng and Liu, Jiani and Long, Zhen and Zhu, Ce: Tensor Regression. In: Foundations and Trends® in Machine Learning. Band 14, Nr. 4, 2021, S. 379–565, doi:10.1561/2200000087.
- ↑
Tamara G. Kolda und Brett W. Bader: Tensor Decompositions and Applications. In: SIAM Review. Band 51, Nr. 3, 2009, S. 455–500, doi:10.1137/07070111X.