Tensorregression

Regressionsmodell basierend auf Tensoren
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 31. März 2024 um 21:48 Uhr durch Tensorproduct (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Diese Baustelle befindet sich fälschlicherweise im Artikelnamensraum. Bitte verschiebe die Seite oder entferne den Baustein {{Baustelle}}.

Als Tensorregression bezeichnet man in der Statistik ein Regressionsmodell basierend auf Tensoren, bei dem entweder der Regressor, der Regressand oder beides Tensoren sind. Tensorregressionen werden vor allem für hochdimensionale Daten verwendet, da Tensoren eine natürliche Darstellung solcher Daten sind. Ein Anwendungsbeispiel für die Tensorregression liegt im Neuroimaging, wo man die Hirnaktivität von Hunderten von Neuronen über einen Zeitraum misst und die Daten sehr schnell wachsen.

Bei hochdimensionalen Daten besitzt der Koeffiziententensor meistens einen viel höheren Rang als der Regressor und der Regressand, weshalb man - ähnlich wie bei der Regression mit reduziertem Rang - häufig die Annahme trifft, dass der Koeffiziententensor einen tiefen Rang basierend auf einer Tensorzerlegung besitzt. Bekannte solche Zerlegungen sind die Candecomp/Parafac-Zerlegung (CP), die Tucker-Zerlegung, die Tensor-Singulärwertzerlegung (t-SVD) und die Tensor-Train-Zerlegung (TT). Im Artikel wird eine Tensor-Verallgemeinerung der verallgemeinerten linearen Modelle (GLM) behandelt, welche 2013 von Hua Zhou et al.[1] mit der Candecomp/Parafec-Zerlegung eingeführt wurde und machmal als CP-GLTR (englisch generalized linear tensor regression) abgekürzt wird.

Tensorregression

Im Artikel wird die Tensorregression auf den reellen Zahlen mit dem Tensorprodukt   definiert, das Konzept lässt sich aber auch auf allgemeine Vektorräumen respektive Moduln definieren.

In der allgemeinen Form sind Tensordaten   gegeben, dann ist das Tensorregressionsmodell von der Form

 

wobei

 

Tensoren und   natürliche Zahlen sind.

Durch Konkatenation  , lässt sich das auch kompakter als

 

hinschreiben.

Tensorzerlegungen

Für einen beliebigen Tensor   sucht man eine Zerlegung eines Tensors  , welche   am besten approximiert

 

wobei wir hier die Frobenius-Norm gewählt haben. Zwei populäre Wahlen sind die Candecomp/Parafec-Zerlegung (kurz CP-Zerlegung) und die Tucker-Zerlegung. Die Tucker-Zerlegung ist eine Form einer höher-dimensionalen Hauptkomponentenanalyse und wird auch HOSVD für englisch higher-order singular value decomposition genannt.

CP-Zerlegung

Sei   ein Tensor. Eine CP-Zerlegung für ein   ist eine Rang- -Zerlegung von   in Elementartensoren

 

wobei   Vektoren und   Gewichte sind. Die minimale Zahl

 

nennt man den Rang von   und er ist invariant unter Basiswechsel. Die Berechnung des Rangs ist jedoch NP-schwer.[2]

Tucker-Zerlegung

Die Tucker-Zerlegung (oder auch HOSVD) zerlegt einen Tensor   in einen Kern-Tensor   und   Faktor-Matrizen   mit  

 

oder

 

wobei   für   und   Vektoren sind und  . Die Parameter   nennt man Tucker-Ränge.

Regressionsmodelle

Sei nun   wie oben, das heißt  .

Verallgemeinerte lineare Tensorregression regression mit CP-Zerlegung

Die von Zhou et al. [1] betrachtete Verallgemeinerung der verallgemeinerten linearen Modelle ist die Kopplungsfunktion

 

wobei der Regressor   und   ein Tensor sind,   ein Vektor-Regressor und   der y-Achsenabschnitt ist. Sie nahmen nun an, dass für   eine CP-Zerlegung mit Rang   existiert

 

Dies kann nun mit Hilfe des Khatri-Rao-Produkt   umgeschriebenen werden zu

 

wobei   und   ein Vektor aus   Einsen ist.[1]

Einzelnachweise

  1. a b c Zhou H, Li L, Zhu H.: Tensor Regression with Applications in Neuroimaging Data Analysis. In: J Am Stat Assoc. Band 108, Nr. 502, 2013, S. 540–552, doi:10.1080/01621459.2013.776499.
  2. Tamara G. Kolda und Brett W. Bader: Tensor Decompositions and Applications. In: SIAM Review. Band 51, Nr. 3, 2009, S. 455–500, doi:10.1137/07070111X.