Ein Tensor ist in der linearen Algebra, einem Teilgebiet der Mathematik, eine Verallgemeinerung der Begriffe Vektor und lineares Funktional. Es gibt eine aufsteigende Folge immer komplexerer Tensoren. So sind Skalare Tensoren 0. Stufe, Vektoren sind Tensoren 1. Stufe, bestimmte physikalische Größen, wie z.B. das Trägheitsmoment eines starren Körpers sind Tensoren 2. Stufe usw.
Entscheidend für die Einordnung einer Größe als Tensor ist, dass es sich um ein Objekt handelt, welches invariant unter Koordinatentransformationen ist. Dementsprechend müssen sich die Koordinaten des Objekts konsistent ändern, wenn man das Koordinatensystem wechselt, denn das dargestellte Objekt soll invariant sein.
Wort- und Begriffsgeschichte
Das Wort Tensor (lat.: tendo ich spanne) wurde in den 1840er Jahren von Hamilton in die Mathematik eingeführt; er bezeichnete damit den Absolutbetrag seiner Quaternionen [1], also noch keinen Tensor im modernen Sinn.
Maxwell scheint den Spannungstensor, den er aus der Elastizitätstheorie in die Elektrodynamik übertrug, selbst noch nicht so genannt zu haben.
In seiner modernen Bedeutung, als Verallgemeinerung von Skalar, Vektor, Matrix, wird das Wort Tensor erstmals von Woldemar Voigt in seinem Buch Die fundamentalen physikalischen Eigenschaften der Krystalle in elementarer Darstellung (Leipzig, 1898) eingeführt.
Unter dem Titel absolute Differentialgeometrie entwickelten Gregorio Ricci-Curbastro und dessen Schüler Tullio Levi-Civita um 1890 die Tensorrechnung auf Riemannschen Mannigfaltigkeiten; einem größeren Fachpublikum machten sie ihre Ergebnisse 1900 mit dem Buch calcolo differenziale assoluto zugänglich, das bald in andere Sprachen übersetzt wurde und aus dem sich Einstein unter großer Mühe die mathematischen Grundlagen aneignete, die er zur Formulierung der Allgemeinen Relativitätstheorie benötigte. Einstein selbst prägte 1916 den Begriff Tensoranalysis und trug mit seiner Theorie maßgeblich dazu bei, den Tensorkalkül bekannt zu machen; er erfand überdies die Summationskonvention.
Anwendungen
Tensoren und Tensorfelder werden in verschiedenen Teilgebieten der Mathematik und Physik angewandt. Diese Anwendungen sind von sehr unterschiedlicher Komplexität:
- in einigen Fällen genügt es, sich Tensoren als eine Verallgemeinerung von Skalar, Vektor, Matrix vorzustellen; in anderen Fällen steht die Invarianz eines Tensors unter Koordinatentransformationen im Vordergrund;
- in einigen Fällen ist es erforderlich, zwischen ko- und kontravarianten Tensoren zu unterscheiden (mehr dazu unten), in anderen Fällen ist diese Unterscheidung irrelevant.
Man muss deshalb damit rechnen, dass Tensoren in verschiedenen Anwendungsgebieten verschieden definiert, verschieden notiert und verschieden gehandhabt werden.
Wichtige Anwendungsgebiete umfassen:
- Algebra: Tensorprodukte sind die algebraische Entsprechung zum kartesischen Produkt geometrischer Objekte.
- Analysis: Die in der Taylorentwicklung einer Funktion in mehreren Veränderlichen
- auftretenden multilinearen Ableitungen kann man als symmetrische, rein kovariante Tensoren aufsteigender Stufe auffassen.
- Differentialgeometrie: Differentialformen und Vektorfelder auf einer Mannigfaltigkeit sind spezielle Tensorfelder, ebenso Riemannsche Metriken.
- Physik und Ingenieurwissenschaften: Die physikalische Bedeutung von Tensoren liegt darin begründet, dass Naturgesetze, die durch Tensorgleichungen ausgedrückt werden, in beliebigen Koordinatensystemen die gleiche Gestalt haben. Die Tensorsprache erweist sich als besonders zweckmäßig
- in der Elastizitätstheorie, Kontinuumsmechanik, Hydrodynamik;
- in der Elektrodynamik und Speziellen Relativitätstheorie;
- sie ist unentbehrlich zum Verständnis der Allgemeinen Relativitätstheorie.
Gebrauch des Tensorbegriffs in Mathematik, Physik und Ingenieurwissenschaften
In verschiedenen Anwendungsgebieten gibt es verschieden komplexe Herangehensweisen an den Begriff Tensor. In dieser Übersicht sei allgemein vorausgesetzt, dass die vorkommenden Vektorräume endlichdimensional sind.
Mathematik
In der Mathematik (s. Tensorprodukt, Tensoralgebra) ist ein Tensor der Stufe s eine multilineare Abbildung
- .
Dabei ist
- der gemeinsame Skalarkörper der Vektorräume , * der duale Vektorraum der linearen Funktionale auf dem Vektorraum ,
- eine Abbildung multilinear, wenn sie in jedem Argument einzeln linear ist, d.h. für jede fixierte Belegung der anderen Argumente.
Diese Definition ist zwar indirekt, da ein Umweg über die dualen Vektorräume gemacht wird, dafür aber ist sie konstruktiv.
Beispielsweise erzeugt jedes Tupel eine multilineare Abbildung nach der Berechnungsvorschrift
- .
Jeder Tensor T läßt sich als Summe von solchen Tensorprodukten schreiben, d.h. es gibt eine endliche Anzahl N von Vektortupeln, so dass gilt
- .
Verschiedene Summen von Tensorprodukten können denselben Tensor ergeben. Die minimal mögliche Anzahl von Summanden in solch einer Produktsumme, die denselben Tensor darstellt heißt Rang dieses Tensors.
Ist in jedem Faktorvektorraum eine Basis gewählt, so ist die Menge aller Tensorprodukte der Basisvektoren eine Basis des Tensorproduktraums, jeder Tensor hat eine Basisdarstellung bzw. Koordinatendarstellung
Physik
In der Physik (s. Tensordarstellungen der Physik) ist man oft an dem speziellen Fall interessiert, dass jeder der dualen Vektorräume entweder V* oder V** ist. V* ist der Vektorraum der linearen Abbildungen vom Vektorraum V in den Körper K. V** ist der sogenannte Bidualraum der Linearen Abbildungen von V* in den zugehörigen Körper K. Beispielhaft sei der folgende Tensor angegeben:
Den beispielhaften Tensor erhält man, indem man für einsetzt. Mit s wird üblicherweise die Stufe des Tensors bezeichnet. Der obige Tensor T ist ein Tensor der Stufe 2.
Die Vektorräume V, V* und V** haben dieselbe Dimension. Das kann man folgendermaßen ausdrücken:
d ist eine natürliche Zahl und steht für die Dimension der Vektorräume.
Die Basis des Vektorraums V sei gegeben durch:
B=(e1,...,ed)
Die folgenden Vektoren des Dualen Vektorraums V*
B*=(θ1,...,θd)
sind Basisvektoren. Jeder Basisvektor stellt einen Tensor der Stufe 1 dar. Die Tensoren des dualen Raums V* werden unter Physikern als kovariante Tensoren bezeichnet. Für die Basistensoren der Stufe 1 gelten die Gleichungen
für alle i,j Element von {1, ... d}
Genauso lassen sich Basisvektoren des Bidualraums V** konstruieren. Sie werden üblicherweise als kontravariante Tensoren bezeichnet. Die Basisvektoren des Bidualraums V** seien gegeben durch
B**=(θ1,...,θd)
mit
für alle i,j Element von {1, ... d}
Als Komponenten des Tensors T werden die folgenden Größen bezeichnet:
Der Tensor lässt sich nach den kovarianten und kontravarianten Basistensoren entwickeln, so dass gilt:
In der Physik wird üblicherweise die Einsteinsche Summenkonvention zur Notation von Tensoren verwendet:
Über gleiche Indizes, von denen einer hoch und einer tief gestellt ist, wird summiert. Die Entwicklung des Tensors T nach den Basistensoren lässt sich somit folgendermaßen notieren:
Das Produkt zwischen dem kontravarianten Tensor der Stufe 1 und dem Kovarianten Tensor der Stufe 1 ist wiederum ein Tensor der Stufe 2. Ist d die Dimension des Vektorraums V, so gibt es Basistensoren der Stufe 2. Die Verknüpfung ist für jegliche Tensoren vom Rang 1 definiert. Die Verknüpfung ist eine Bilineare Funktion. Im Allgemeinen gilt jedoch:
Diese Frage nach dem Transformationsverhalten von Größentupeln oder gar physikalischen Gesetzen ist charakteristisch für die Relativitätstheorie (Krümmungstensoren), Quantenphysik (Spinoren und Vektorladungen) und Festkörperphysik (Verschiebungs- und Spannungstensor, Elastizitätsmodul). Die Tensorrechnung stellt das mathematische Rahmenwerk der allgemeinen Relativitätstheorie Einsteins dar und hat in dieser Form auch größere Bekanntheit erhalten.
Ingenieuerwesen, Statistik
Für Leute, die einfach mit Tensoren rechnen müssen, reicht die Darstellung als Tupel mit Multiindex meist vollkommen aus, um Messwerte nach verschiedenen Kriterien zu sortieren und damit zu rechnen. Allerdings ist die Interpretation der Rechnung und des Ergebnisses nicht so durchsichtig, insbesondere wenn explizit oder implizit Basiswechsel vollzogen werden sollen.
Dann ist ein Tensor
- der Stufe 1 einfach ein normales Tupel, ein Zeilen- oder Spaltenvektor,
- der Stufe 2 eine Matrix, d.h. ein rechteckiges Schema, in welches Zahlen eingetragen sind, z.B.
- ein Arbeitsblatt in einem Tabellenkalkulationsprogramm
- ein Pixelbild, wie es in einer Digitalkamera errzeugt wird.
- der Stufe 3 ein Quader in einem 3-dimensionales Gitter, in welches Zahlen an den Gitterpunkten eingetragen sind, z.B.
- eine Arbeitsmappe in einer Tabellenkalkulation
- eine Videosequenz mit der Zeit als 3. Koordinate.
Für diese Objekte sind zwei Operationen definiert, die Verjüngung und die Überschiebung, wobei die Verjüngung als Überschiebung mit der Einheitsmatrix gesehen werden kann.
Die einfache Überschiebung eines Tensors a der Stufe 2 mit einem Tensor b der Stufe 1 ist nichts weiter als die normale Matrix-Vektor-Multiplikation
- ,
die Klammern drücken aus, dass es sich um ein Tupel handelt, das alle Indexkombinationen durchläuft. Wir können auch einen Tensor c der Stufe 3 mit einem Tensor a der Stufe 2 überschieben und erhalten eine lineare Abbildung aus dem Raum der Matrizen in den Raum der Vektoren
- .
Überschiebt man 2 Tensoren 3. Stufe in einem Index, so entsteht ein Tensor 4. Stufe.
Die Verjüngung eines Tensors 2. Stufe ist die Spur dieser Matrix
- ,
durch Verjüngen eines Tensors 3. Stufe entsteht ein Tensor 1. Stufe.
Für Anwendungen in der Statistik, speziell für multivariate Verfahren, wird das Tensorprodukt von Spaltenvektoren und diese transformierender Matrizen benötigt. Für diesen Zweck wird das Kronecker-Produkt von Matrizen eingesetzt. Diesem liegt zugrunde, dass aus einem Multiindex durch alphabetische Anordnung ein einfacher Index erzeugt wird, z.B. wenn das Produkt eines zwei- und eines dreidimensionalen Vektors gebildet wird, so wird dem Indexpaar (i,j) der einfache Index 3i+j-3 zugeordnet, d.h.
- .
Im Kroneckerprodukt zweier Matrizen wird dieses Verfahren in beiden Dimensionen separat angewandt.
Weitere Bemerkungen
Oft verwendet man das Wort Tensor auch abkürzend als Bezeichnung für ein Tensorfeld, also eine Abbildung, die jedem Punkt einer Mannigfaltigkeit einen Tensor zuordnet.
Dieser Artikel erklärt außerdem die Begriffe Tensorraum und Tensorprodukt: jeder Tensor ist Element eines Tensorraums; ein Tensorraum ist das Tensorprodukt von Vektorräumen. Mehr dazu unten.
Das Teilgebiet der Algebra, das von Tensoren handelt, wird ohne klare Bedeutungsunterschiede als Tensorrechnung, Tensoralgebra oder multilineare Algebra bezeichnet. Die Tensoranalysis hingegen handelt von Differentialoperationen auf Tensorfeldern über Mannigfaltigkeiten.
Tensoren für Ingenieure
Naive Definition: Tensoren als Verallgemeinerung von Skalar, Vektor, Matrix
Für manche Anwendungen, zum Beispiel in der Elastizitätstheorie, ist es vollkommen ausreichend, sich Tensoren als eine Fortsetzung der Reihe Skalar, Vektor, Matrix vorzustellen. Dabei unterscheidet man Tensoren verschiedener Stufe (auch Rang genannt):
- Ein Tensor nullter Stufe ist einfach eine Zahl, auch Skalar genannt.
- Ein Tensor erster Stufe wird durch einen Spaltenvektor dargestellt; im n-dimensionalen Raum hat ein solcher Tensor genau n Koeffizienten.
- Ein Tensor zweiter Stufe wird durch eine quadratische Matrix dargestellt, also ein Zahlenschema, in dem jeder der n2 Koffizienten des Tensors durch zwei Indizes bezeichnet ist.
- Ein Tensor dritter Stufe ließe sich durch eine würfelförmige Anordnung seiner n3 Koeffizienten darstellen, die durch je drei Indizes "adressiert" werden.
- Ein Tensor m-ter Stufe hat dementsprechend nm Koeffizienten, die mit Hilfe von m Indizes auseinander gehalten werden.
In den einzelnen Indizes können natürlich auch verschiedene Dimensionen vorkommen.
Tensoren für Physiker
Summationskonvention
Die Indizes der oben beschriebenen mehrdimensionalen Schemata werden teils oben, teils unten an das Tensorsymbol angeschrieben, z.B. Tijk. Die oberen Indizes heißen kontravariant, die unteren kovariant.
Im weiteren Verlauf dieses Artikels verwenden wir die von Einstein eingeführte Summationskonvention: über jeden Index, der auf einer Seite einer Gleichung zweimal vorkommt, einmal oben und einmal unten, wird automatisch summiert. Das Summenzeichen wird dabei weggelassen.
Statt
- x1e1+ ... + x ne n = x iei
schreiben wir also ab sofort
- x iei.
Diese Operation wird auch als Verjüngung des Tensors bzw. Produkts zweier Tensoren bezeichnet, mathematisch entspricht dem die Spurbildung über zwei Koordinaten oder das Einsetzen eines Vektors in eine lineare Abbildung.
Diese Schreibweise verwenden wir neben der koordinatenfreien Notation von Tensorgleichungen, in vielen physikalischen Theorien bleibt sie übersichtlich und die Stufen aller in der Gleichung vorkommenden Tensoren sowie Verjüngungen lassen sich auf den ersten Blick erkennen; die Materialgleichung aus der Elektrodynamik
- B = μ(H), μ:R3->R3
schreiben wir also
- Bi = μi j Hj
(mit impliziter Summation über j).
Allgemeines (alt)
Andererseits aber erzwingt die Tensoralgebra neue Unterscheidungen: sie klassifiziert geometrische Objekte danach, wie sich deren Koordinatendarstellungen unter einem Wechsel der Vektorraumbasis verhalten, und deckt dabei auf,
- dass einige Vektoren eigentlich Pseudovektoren sind,
- dass Skalarprodukte entweder auf Linearformen zurückgehen oder eine Metrik voraussetzen, und
- dass eine quadratische Matrix eine lineare Abbildung oder eine Bilinearform repräsentieren kann.
In den folgenden Abschnitten stellen wir einige grundlegende Objekte der linearen Algebra in der Sichtweise der Tensoralgebra dar: dabei erarbeiten wir die genannten Unterscheidungen und führen zugleich zu einem tieferen Verständnis des Begriffs Tensor hin.
Für ein tieferes Verständnis von Tensoren ist es unerlässlich, zu rekapitulieren, was eigentlich ein Vektor ist: nämlich
- ein geometrisches Objekt,
- das einem Vektorraum angehört,
- das durch Koordinaten bezüglich einer Basis (Vektorraum) bezeichnet werden kann,
- das aber nicht von einer bestimmten Basis abhängt, sondern unter Basiswechsel (= Koordinatentransformation) invariant bleibt.
Basis und Koordinatenvektoren
Wir betrachten einen Vektor v aus einem n-dimensionalen Vektorraum V. Bezüglich einer gegebenen Basis E:=(e1, ..., en) ist v durch seine Koordinaten x1, ..., xn gegeben:
- v = x1e1 + ... + x nen=eixi.
Die Koordinaten werden üblicherweise zu einem Spaltenvektor x zusammengefasst, nach den formalen Regeln der Matrixrechnung erhalten wir die obige Linearkombination, wenn wir die Basisvektoren zu einem Zeilenvektor E=(e1, ..., en) zusammenfassen und schreiben
- .
Wir können E auch als lineare Abbildung E:Kn→V betrachten, die zu einem gegebenen Koordinatenvektor einen Vektor in V erzeugt.
Der Koordinatenvektor kann nun durch die inverse Abbildung von E bestimmt werden. Diese existiert, da wir es mit einer Basis zu tun haben. E-1:V→Kn ein Spaltenvektor linearer Funktionale.
Das Hochstellen der Koordinatenindizes ist in einigen, aber nicht allen Anwendungen der Tensorrechnung üblich; es steht im Zusammenhang mit der Unterscheidung von ko- und kontravarianten Größen; es wird vereinbart,
- dass unten stehende Indizes die Nummer einer Spalte bzw. den Index in einem Zeilenvektor darstellen, oben stehende die Nummer einer Zeile bzw. den Index in einem Spaltenvektor.
- dass Indizes über kontravariante Objekte hochgestellt, Indizes über kovariante Objekte tiefgestellt sind.
Basiswechsel und Koordinatentransformationen
Bei einem Basiswechsel im Vektorraum V tritt an die Stelle der bisherigen Basis E:=(e1, ..., en) eine neue Basis E`:=(e`1, ..., e`n).
Dem Wechsel der Basis entspricht eine bijektive lineare Abbildung a:V->V, welche jedem alten Basisvektor den neuen zuordnet,
- e`i = a(ei) = ej aj i
(mit Summation über j). Die zweite Gleichheit resultiert daraus, dass wir jeden neuen Basisvektor als Linearkombination in der alten Basis ausdrücken können. Fassen wir die Koeffizienten zusammen, so erhalten wir die Matrix A=((ai j)) des Basiswechsels, womit koordinatenfrei
- E`=E.A entsteht.
Ein Vektor v, der invariant bleiben soll, hat in beiden Basen verschiedene Koordinatendarstellungen, koordinatenfrei
- v = E x = E` x` = E A x oder in Indexschreibweise
- v = ei xi = e`j x` j = ej aj i x`i.
Man liest ab, dass die Koordinatentransformation von x i nach x` j der Vorschrift
- x=A x` bzw. x j = aj i x` i
genügt. Wollen wir also die neuen mittels der alten Koordinaten ausdrücken, so müssen wir die Matrix A invertieren:
- x`=A-1 x und in Indizes x` i = (a-1)i j x j.
Man erkennt, dass sich Basis und Vektorkoordinaten gegenläufig transformieren:
- von ej nach e`i mit der Matrix aj i,
- von xj nach x` i dagegen mit der inversen Matrix (a-1)i j.
In der physikalischen Literatur wird oft das Beschriebene mit der Beschreibung gleichgesetzt, besonders in der Teilchenphysik. So wird ein Tensor mit seiner Koordinatendarstellung gleichgesetzt; ein Tensor, dessen Koordinaten kontravariant transformieren, wird dann als kontravarianter Tensor bezeichnet, obwohl das beschriebene Objekt invariant bleibt. Vektoren werden demnach als kontravariante Tensoren erster Stufe bezeichnet, obwohl nur ihre Koordinatendarstellung es ist, als geometrische Objekte sind sie ja invariant.
Linearformen (1-Formen) als kovariante Tensoren erster Stufe
Eine Linearform ist eine lineare Abbildung aus einem Vektorraum in den zugrundeliegenden Skalarkörper. Der Vektorraum aller Linearformen über einem Vektorraum V ist dessen Dualraum V *.
Wenn eine bestimmte Basis {e1, ..., en} von V gegeben ist, dann kann man in kanonischer Weise eine Basis {e1, ..., en} von V * wählen, so dass gilt:
- ei(ej) = δi j,
wobei das Kronecker-Symbol δi j für i = j den Wert 1, sonst den Wert 0 hat. Eine Linearform
- f = fi ei,
auf einen Vektor v angewandt, liefert dann
- f(v) = fi ei (v j ej) = fi v j ei(ej) = fi v j δi j = fi v i.
Damit die Beziehungen ei(ej) = δi j und f(v) = fi v i unabhängig von der Wahl bestimmter Basen gelten, ist zu fordern: bei einem Basiswechsel im Vektorraum V transformieren
- die Basisvektoren ei des Dualraums V * kontravariant, und
- die Koeffizienten fi einer Linearform f kovariant,
wie wir es in der Notation durch Hoch- beziehungsweise Tiefstellen der Indizes schon vorweggenommen haben.
Eine Linearform, die diese Transformationseigenschaften aufweist, heißt 1-Form oder kovarianter Tensor erster Stufe oder einfach kovarianter Vektor.
Matrizen und Tensorprodukte
Wir können einer beliebigen quadratischen Matrix B ein invariantes Objekt, nämlich ein Skalar, zuordnen, indem wir mit zwei Koordinatenvektoren x und y das Produkt
- bilden.
Drücken wir es in den von den Koordinaten beschriebenen invarianten Vektoren v=E.x und w=E.y aus, können wir das invariante Objekt ablesen, welches A zuzuordnen ist:
- .
Wir erhalten also eine Bilinearform b:V x V -> K, man schreibt sie als
Tensoren in der Mathematik
Tensoren sind Elemente von Tensorprodukten, einer rein algebraischen Konstruktion. Siehe auch Tensoralgebra, äußere Algebra, symmetrische Algebra.
Beispiele für Tensoren sind:
- Bilinearformen, insbesondere Skalarprodukte, auf einem Vektorraum sind Elemente von .
- Die Determinante von -Matrizen, aufgefasst als alternierende Multilinearform der Spalten, ist ein Element von .
- Lineare Abbildungen zwischen endlichdimensionalen Vektorräumen können als Elemente von aufgefasst werden.
In der Differentialgeometrie spielen Tensorfelder eine wichtige Rolle, z.B. (es sei eine differenzierbare Mannigfaltigkeit):
- Differentialformen vom Grad , insbesondere das totale Differential einer Funktion im Fall , sind Schnitte von
- Riemannsche Metriken sind Schnitte von .
- Der riemannsche Krümmungstensor kann als Schnitt von aufgefasst werden.
Ko- und Kontravarianz als Eigenschaften von Abbildungen
Sei V ein fester K-Vektorraum und W ein beliebiger weiterer K-Vektorraum. Eine lineare Abbildung f:W->V heißt kovariant bzgl. V, eine lineare Abbildung g:V->W heißt kontravariant in V.
Eine Quelle der Verwirrung über diese Begriffe ist, dass in der Physik und älteren Lehrbüchern davon gesprochen wird, dass sich die Matrizen dieser Abbildungen ko- bzw. kontravariant unter Basiswechsel transformieren. Jedoch kehren sich dabei die Zuordnungen um; eine kovariante Abbildung hat eine Matrix, die kontravariant bzgl. Basiswechsel ist und umgekehrt.
Grundlegende Beispiele:
- Ein Vektor v∈V ist mit der Abbildung i:K→V zu identifizieren, welche K auf die Gerade x↦x.v mit der Richtung v abbildet. Ein Vektor ist also kovariant.
- Ein Kovektor v*∈V* ist als lineares Funktional v*:V→K definiert, somit ist er kontravariant in V.
Tensorprodukte eines Vektorraums und Symmetrie
Man kann das Tensorprodukt eines Vektorraumes V mit sich selbst bilden. Ohne weiteres Wissen über den Vektorraum kann ein Automorphismus des Tensorprodukts definiert werden, der darin besteht, in den reinen Produkten die Faktoren zu vertauschen,
- .
Das Quadrat dieser Abbildung ist die Identität, woraus Folgt, dass es Eigenvektoren zum Eigenwert 1 und zum Eigenwert -1 gibt.
- Ein , welches erfüllt, heißt symmetrisch. Beispiele sind die Elemente
- w=a⊙b:= .
- Die Menge aller symmetrischen Tensoren der Stufe 2 wird mit bezeichnet.
- Ein , welches erfüllt, heißt antisymmetrisch oder alternierend. Beispiele sind die Elemente
- .
- Die Menge aller antisymmetrischen Tensoren der Stufe 2 wird mit bezeichnet.
Mittels können Tensorpotenzen von V beliebiger Stufe gebildet werden. Entsprechend können weitere paarweise Vertauschungen definiiert werden. Nur sind diese nicht mehr voneinander unabhängig. So läßt sich jede Vertauschung der Stellen j und k auf Vertauschungen mit der ersten Stelle zurückführen.
Es kann wieder der Untervektorraum aller Elemente gebildet werden, die unter sämtlichen Permutationen invariant sind sowie der Unterraum derjenigen Elemente, die unter sämtlichen Paarvertauschungen ihr Vorzeichen ändern (siehe Graßmann-Algebra).
Formale Definition: Tensoren der Stufe r+s, Tensorprodukt, Tensorraum
Man definiert einen Tensor vom Grad (r,s) als multilineare Abbildung mit s Argumenten und r Argumenten Die Argumente sind Elemente eines Vektorraumes und Argumente des zum Vektorrraum gehörenden Dualraumes .
Der Tensor hat dann die Form
Die Summe r + s heißt Stufe oder Rang des Tensors.
Je nachdem, ob die Argumente aus einem Vektorraum sind oder aus dessen Dualraum, wird der Tensor als kovariant oder kontravariant bezeichnet. Im obigen Fall liegt ein s-fach kovarianter, r-fach kontravarianter Tensor vor.
Der durch den nachfolgenden Link referenzierte Artikel vergleicht die in der Physik verwendeten Tensoren mit der rein mathematischen Definition.
Pseudovektoren
siehe einstweilen: Pseudovektor