Tensor

multilineare Abbildung
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 15. August 2004 um 13:25 Uhr durch Mh26 (Diskussion | Beiträge) (Vektoren als kontravariante Tensoren erster Stufe: formatiert). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Tensoren bilden in der Mathematik eine sehr allgemeine Klasse von geometrischen Objekten, die unter anderem Skalare, Vektoren, lineare Abbildungen und Bilinearformen als Spezialfälle enthält.

Oft verwendet man das Wort Tensor auch abkürzend als Bezeichnung für ein Tensorfeld, also eine Abbildung, die jedem Punkt einer Mannigfaltigkeit einen Tensor zuordnet.

Dieser Artikel erklärt außerdem die Begriffe Tensorraum und Tensorprodukt: jeder Tensor ist Element eines Tensorraums; ein Tensorraum ist das Tensorprodukt von Vektorräumen. Mehr dazu unten.

Das Teilgebiet der Algebra, das von Tensoren handelt, wird ohne klare Bedeutungsunterschiede als Tensorrechnung, Tensoralgebra oder multilineare Algebra bezeichnet. Die Tensoranalysis hingegen handelt auch von Differentialoperationen auf Tensorfeldern über Mannigfaltigkeiten.

Anwendungen

Tensoren und Tensorfelder werden in verschiedenen Teilgebieten der Mathematik und Physik angewandt. Diese Anwendungen sind von sehr unterschiedlicher Komplexität:

  • in einigen Fällen genügt es, sich Tensoren als eine Verallgemeinerung von Skalar, Vektor, Matrix vorzustellen; in anderen Fällen steht die Invarianz eines Tensors unter Koordinatentransformationen im Vordergrund;
  • in einigen Fällen ist es erforderlich, zwischen ko- und kontravarianten Tensoren zu unterscheiden (mehr dazu unten), in anderen Fällen ist diese Unterscheidung irrelevant.

Man muss deshalb damit rechnen, dass Tensoren in verschiedenen Anwendungsgebieten verschieden definiert, verschieden notiert und verschieden gehandhabt werden.

Wichtige Anwendungsgebiete umfassen:

Naive Definition: Tensoren als Verallgemeinerung von Skalar, Vektor, Matrix

Für manche Anwendungen, zum Beispiel in der Elastizitätstheorie, ist es vollkommen ausreichend, sich Tensoren als eine Verallgemeinerung von Skalar, Vektor, Matrix vorzustellen. Dabei unterscheidet man Tensoren verschiedener Stufe (auch Rang genannt):

  • Ein Tensor nullter Stufe ist ein Skalar.
  • Ein Tensor erster Stufe wird durch einen Vektor dargestellt; im n-dimensionalen Raum hat ein solcher Tensor genau n Koeffizienten.
  • Ein Tensor zweiter Stufe wird durch eine quadratische Matrix dargestellt, also ein Zahlenschema, in dem jeder der n2 Koffizienten des Tensors durch zwei Indizes bezeichnet ist.
  • Ein Tensor dritter Stufe ließe sich durch eine würfelförmige Anordnung seiner n3 Koeffizienten darstellen, die durch je drei Indizes "adressiert" werden.
  • Ein Tensor m-ter Stufe hat dementsprechend nm Koeffizienten, die mit Hilfe von m Indizes auseinander gehalten werden.

Lineare Algebra in Tensorsprache

Der Begriff Tensor fasst einerseits verschiedene Konzepte der Linearen Algebra, wie Skalar, Vektor und Matrix in sich zusammen. Andererseits aber erzwingt die Tensoralgebra neue Unterscheidungen: sie klassifiziert geometrische Objekte danach, wie sich deren Koordinatendarstellungen unter einem Wechsel der Vektorraumbasis verhalten, und deckt dabei auf,

  • dass einige Vektoren eigentlich Pseudovektoren sind,
  • dass Skalarprodukte entweder auf Linearformen zurückgehen oder eine Metrik voraussetzen, und
  • dass eine quadratische Matrix eine lineare Abbildung oder eine Bilinearform repräsentieren kann.

In den folgenden Abschnitten stellen wir einige grundlegene Objekte der linearen Algebra in der Sichtweise der Tensoralgebra dar: dabei erarbeiten wir die genannten Unterscheidungen und führen zugleich zu einem tieferen Verständnis des Begriffs Tensor hin.

Vektoren als kontravariante Tensoren erster Stufe

Für ein tieferes Verständnis von Tensoren ist es unerlässlich, zu rekapitulieren, was eigentlich ein Vektor ist: nämlich

  • ein geometrisches Objekt,
  • das einem Vektorraum angehört,
  • das durch Koordinaten bezüglich einer Basis (Vektorraum) bezeichnet werden kann,
  • das aber nicht von einer bestimmten Basis abhängt, sondern unter Basiswechsel (= Koordinatentransformation) invariant bleibt.

Wir betrachten einen Vektor v aus einem n-dimensionalen Vektorraum V. Bezüglich einer gegebenen Basis {e1, ..., en} ist v durch seine Koordinaten v1, ..., v n gegeben:

v = v1e1 + ... + v nen.

Das Hochstellen der Koordinatenindizes ist in einigen, aber nicht allen Anwendungen der Tensorrechnung üblich; es steht im Zusammenhang mit der Unterscheidung von ko- und kontravarianten Größen; mehr dazu unten.

Summationskonvention

Im weiteren Verlauf dieses Artikels verwenden wir die von Einstein eingeführte Summationskonvention: über jeden Index, der auf einer Seite einer Gleichung zweimal vorkommt, wird automatisch summiert. Statt

v = v1e1+ ... + v ne n =   v iei

schreiben wir also ab sofort

v = v iei.

Diese Schreibweise ziehen wir auch der koordinatenfreien Notation von Tensorgleichungen vor, da sie auf den ersten Blick die Stufen aller in der Gleichung vorkommenden Tensoren erkennen lässt; die Materialgleichung aus der Elektrodynamik

B = μ H

schreiben wir also

Bi = μi j Hj

(mit impliziter Summation über j).

Koordinatentransformationen, Ko- und Kontravarianz

Bei einem Basiswechsel im Vektorraum V tritt an die Stelle der bisherigen Basis {e1, ..., en} eine neue Basis {e`1, ..., e`n}. Alte und neue Basis gehen durch eine bijektive lineare Abbildung A auseinander hervor. Diese Abbildung kann durch eine invertierbare Matrix ai j dargestellt werden:

ei = ai j e`j

(mit Summation über j).

Für einen Vektor

v = v i ei = v i ai j e`j = v` j e`j

liest man ab, dass die Koordinatentransformation von v i nach v` j der Vorschrift

v` j = ai j v i

genügt. Man beachte, dass hier, anders als sonst, über den ersten der beiden Indizes der Matrix a summiert wird. In koordinatenfreier Notation könnte man das mit Hilfe der transponierten Matrix schreiben: ai j = (aT) j i. Die Rücktransformation erfolgt mit Hilfe der inversen Matrix:

v i = (a-1) j i v` j.

Man erkennt, dass sich Basis und Vektorkoordinaten gegenläufig transformieren:

  • von e`j nach ei mit der Matrix ai j,
  • von v` j nach i dagegen mit der inversen Matrix (a-1) j i.

Diese Unterscheidung durchzieht die gesamte Tensoralgebra: man kann sämtliche Tensoren danach klassifizieren, ob sie sich

  • kovariant wie die Basisvektoren oder
  • kontravariant wie die Vektorkoordinaten

transformieren; bei Tensoren höherer als erster Stufe sind auch Mischformen möglich (kovariant in einigen, kontravariant in anderen Indizes).

In diesem Artikel machen wir, wie in einigen Anwendungen der Tensorrechnung üblich, diese Unterscheidung explizit sichtbar, indem wir kontravariante Indizes hochstellen, kovariante Indizes tiefstellen.

Sprachlich unterscheidet man nicht immer zwischen einem Tensor und seiner Koordinatendarstellung; einen Tensor, dessen Koordinaten kontravariant transformieren, nennt man deshalb auch einen kontravarianten Tensor. Vektoren sind demnach kontravariante Tensoren erster Stufe.

Linearformen (1-Formen) als kovariante Tensoren erster Stufe

Eine Linearform ist eine lineare Abbildung aus einem Vektorraum in den zugrundeliegenden Skalarkörper. Der Vektorraum aller Linearformen über einem Vektorraum V ist dessen Dualraum V *.

Wenn eine bestimmte Basis {e1, ..., en} von V gegeben ist, dann kann man in kanonischer Weise eine Basis {e1, ..., en} von V * wählen, so dass gilt:

ei(ej) = δi j,

wobei das Kronecker-Symbol δi j für i = j den Wert 1, sonst den Wert 0 hat. Eine Linearform

f = fi ei,

auf einen Vektor v angewandt, liefert dann

f(v) = fi ei (v j ej) = fi v j ei(ej) = fi v j δi j = fi v i.

Damit die Beziehungen ei(ej) = δi j und f(v) = fi v i unabhängig von der Wahl bestimmter Basen gelten, ist zu fordern: bei einem Basiswechsel im Vektorraum V transformieren

  • die Basisvektoren ei des Dualraums V * kontravariant, und
  • die Koeffienten fi einer Linearform f kovariant,

wie wir es in der Notation durch Hoch- beziehungsweise Tiefstellen der Indizes schon vorweggenommen haben.

Eine Linearform, die diese Transformationseigenschaften aufweist, heißt 1-Form oder kovarianter Tensor erster Stufe oder einfach kovarianter Vektor.

Skalarprodukt versteckt eine Metrik oder eine 1-Form

In der Linearen Algebra führen verschiedene Überlegungen auf das Skalarprodukt: mit Hilfe des Skalarprodukts kann man

  • die Länge eines Vektors berechnen: |v| = (v·v)1/2;
  • den Cosinus des Winkels zwischen zwei Vektoren berechnen: cos(Winkel zwischen v und w) = v·w / (|v|·|w|);
  • eine Ebenengleichung in kompakter Weise schreiben (Hessesche Normalform): wenn n·x=c, dann liegt x in der durch den Normalenvektor n und den Skalarwert c festgelegten Ebene.

Bei der Berechnung von Längen oder Winkeln steht das Skalarprodukt für eine Abbildung aus V×V in den zugrundeliegenden Skalarkörper. In Tensorsprache ist diese Abbildung eine durch den metrischen Tensor gij gegebene Bilinearform: mehr dazu unten.

In der Hesseschen Normalform dagegen liegt es nahe, den Normalenvektor n als eine 1-Form zu lesen:

n·x = (ni ei) · (xj ej) = ni ei (xj ej) = ni xj ei (ej) = ni xj δi j = ni xi.

Man setzt also das Skalarprodukt ei · ej mit der Linearform ei(ej) gleich. In dieser Weise kann man jeden kovarianten Vektor als eine 1-Form auffassen.

Gradient als 1-Form

Der Gradient eines skalaren Vektorfeldes f(x) ermöglicht die lineare Approximation

f(x) = f(x0) + df(x0) · (x - x0) + O(|x - x0|2).

Der Gradient df muss kovariant sein, damit das Skalarprodukt df(x0) · (x - x0) basisunabhängig ist; nach dem oben gesagten fasst man den Gradienten eines Skalarfeldes deshalb auch als eine 1-Form auf.

Davon abstrahiert, kann man auch den Gradienten-Operator

d =   ei = ∂i ei

als 1-Form auffassen (was wohlgemerkt nicht seine Wirkung auf ein Skalarfeld f, sondern die gemeinsame Tensorstufe von d und df beschreibt).

Koordinatentransformation mittels Jacobi-Matrix

Die Transformationsmatrix ai j ist selbst kein Tensor, denn sie ist kein koordinatenunabhängiges geometrisches Objekt, sondern beschreibt im Gegenteil just einen Wechsel des Koordinatensystems.

Formal kann man die Transformationsmatrix als Jacobi-Matrix schreiben, indem man den Gradienten bezüglich der alten Koordinaten auf den Ortsvektor in neuen Koordinaten anwendet und ausnutzt, dass der Gradient kovariant transformiert:

  = ∂jx`i = ∂j ak i xk = ak i δjk = aj i.

Lineare Abbildungen als Tensoren der Stufe 1+1

Die Wirkung einer linearen Abbildung h : VV auf die Koordinaten eines Vektors v kann durch eine quadratische Matrix h i j dargestellt werden:

h(v)i = h i j v  j.

Aus dem Transformationsverhalten unter einem Basiswechsel,

h(v)` i = a i j h(v) j = a i j h j k v k = a i j h j k (a-1)k l v` l = h` i l v` l

folgt, dass sich die Matrixkomponenten gemäß

h` i l = a i j h j k (a-1)k l,

also im einen Index kovariant, im anderen kontravariant transformieren.

Eine lineare Abbildung h ist somit ein Tensor zweiter Stufe; für eine gegebene Basis von V (und damit auch von V *) kann man h als Linearkombination einfach kovarianter mit einfach kontravarianten Basisvektoren schreiben:

h = h i j ei e j.

Formale Definition: Tensoren der Stufe r+s, Tensorprodukt, Tensorraum

Man definiert einen Tensor vom Grad (r,s) als multilineare Abbildung mit s Argumenten   und r Argumenten   Die Argumente   sind Elemente eines Vektorraumes   und   Argumente des zum Vektorrraum gehörenden Dualraumes  .

Der Tensor hat dann die Form

 
 

Die Summe r + s heißt Stufe oder Rang des Tensors.

Je nachdem ob, die Argumente aus einem Vektorraum sind oder aus dessen Dualraum wird der Tensor als kovariant oder kontravariant bezeichnet. Im obigen Fall liegt ein s-fach kovarianter, r-fach kontravarianter Tensor vor.

Der durch den nachfolgenden Link referenzierte Artikel vergleicht die in der Physik verwendeten Tensoren mit der rein mathematischen Definition.

Pseudovektoren

siehe einstweilen: Pseudovektor

Wort- und Begriffsgeschichte

Das Wort Tensor (lat.: tendo ich spanne) wurde in den 1840er Jahren von Hamilton in die Mathematik eingeführt; er bezeichnete damit den Absolutbetrag seiner Quaternionen [1], also noch keinen Tensor im modernen Sinn.

Maxwell scheint den Spannungstensor, den er aus der Elastizitätstheorie in die Elektrodynamik übertrug, selbst noch nicht so genannt zu haben.

In seiner modernen Bedeutung, als Verallgemeinerung von Skalar, Vektor, Matrix, wird das Wort Tensor erstmals von Woldemar Voigt in seinem Buch Die fundamentalen physikalischen Eigenschaften der Krystalle in elementarer Darstellung (Leipzig, 1898) eingeführt.

Unter dem Titel absolute Differentialgeometrie entwickelten Gregorio Ricci-Curbastro und dessen Schüler Tullio Levi-Civita um 1890 die Tensorrechnung auf Riemannschen Mannigfaltigkeiten; einem größeren Fachpublikum machten sie ihre Ergebnisse 1900 mit dem Buch calcolo differenziale assoluto zugänglich, das bald in andere Sprachen übersetzt wurde und aus dem sich Einstein unter großer Mühe die mathematischen Grundlagen aneignete, die er zur Formulierung der Allgemeinen Relativitätstheorie benötigte. Einstein selbst prägte 1916 den Begriff Tensoranalysis und trug mit seiner Theorie maßgeblich dazu bei, den Tensorkalkül bekannt zu machen; er erfand überdies die Summationskonvention.