Diskussion:Tensor
Toter Link aus Artikel
Hi,
"Einen Tensor n-ter Stufe kann man als Argument einer mathematischen Operation auffassen, die einen Vektor n-ter Dimension a in einen Vektor n-ter Dimension b linear abbildet."
Diesen Satz verstehe ich nicht. Eine lineare Abbildung, die einen n dimensionalen Vektor a auf einen n dimensionalen Vektor b abbildet, wird durch eine quadratische n x n Matrix repräsentiert. Diese kann mit einem Tensor 2. Stufe identifiziert werden.
Z.B. ist der metrische Tensor der Relativitätstheorie ein Tensor 2. Stufe. Ausdrücke der Form entsprechen einer Vektor-Matrix-Vektormultiplikation, links steht ein Zeilenvektor, in der Mitte die Matrix , rechts ein Spaltenvektor.
Damit hat auch zwei Eingangsgrößen, wie es in der rein mathematischen Definition gefordert wird.
Der Zeilenvektor entspricht der kovarianten Größe, der Spaltenvktor dem kontravarianten Anteil.
In der Literatur findet man z.B. das Gradientenfeld eines Vektors als kovariante Größe, einen Ortsvektor als kontravariante Größe.
Betrachtet man z.B. den Nabla Operator als kovariant, einen Vektor als kontravariant, dann ergibt deren Skalarprodukt gerade die Divergenz, einen Skalar. Gruss --WoSa 19:14, 12. Aug 2003 (CEST)
Der gesamte Artikel ist aus mathematischer Sicht arg bedenklich und würde dringend einer Generalüberholung bedürfen (ich werde das bei Gelegenheit mal tun, wenn sich vorher kein anderer findet.).
Ein Tensor ist nämlich keineswegs eine "Matrix" und schon gar kein Würfel. Vielmehr ist ein Tensor eine multilineare Abbildung, die man bezüglich einer gegebenen Basis natürlich in Koordinaten darstellen kann (denn wenn man weiß, wie ein Tensor auf die Basisvektoren wirkt, dann kann man auf Grund seiner Linearität daraus die Wirkung auf jeden Satz von Vektoren bestimmen. Nach dem gleichen Prinzip funktioniert ja der sog. "kanonische Isomorphismus", mit dem man in jedem n-dim Vektorraum über K einen Vektor mit K^n und einen linearen Operator mit K^(n*n) identifizieren kann).
Mal von der Geschichts mit der Identifikation Zahlenkollonne<->lineares Gebilde abgesehen, ist es auch, wie schon mein Vorredner bemerkte, durchaus so, dass jede Matrix eine lineare Abbildung V->V und damit auch einen 1fach ko- und 1-fach kontravarianten Tensor vermittelt. Hingegen sind auch Bilinearformen Tensoren, die man allerdings nicht gerade mit einer Matrix identifizieren muss.
Dass sich hier Worte wie "kovariant" oder "kontravariant" überhaupt nicht finden, ist sehr bedenklich. Als Beispiel von Tensoren sollten wohl auch in erster Linie die wirklich nützlichen Spannungstensoren genannt werden. cgk 15:48, 12. Feb 2004 (CET)
Die folgenden Abschnitte verstehe ich nicht. Vielleicht könnte der Autor Beispiele hierfür angeben, den Text näher erläutern, oder Literatur referenzieren. Der letzte Absatz ist meiner Meinung nach falsch (siehe meine vorangehenden Ausführungen).
- Bei einem Tensor dritter Stufe ist ein Darstellung in Form eines Würfels mit ganzzahliger Kantenlänge vorstellbar, wobei an jedem ganzzahligen Punkt des Würfels ein Skalar angesiedelt ist.
- Tensoren höherer Stufe kann man analog mit höherdimensionalen Würfeln definieren.
Tensoren haben in allen Dimensionen die gleiche Kantenlänge und zeichnen sich durch ein bestimmtes Transformationsverhalten bei Drehungen des Koordinatensystems aus. So ist nicht jede quadratische Matrix ein Tensor zweiter Stufe, aber jeder Tensor zweiter Stufe läßt sich in Form einer quadratischen Matrix darstellen.
Einen Tensor n-ter Stufe kann man als Argument einer mathematischen Operation auffassen, die einen Vektor n-ter Dimension a in einen Vektor n-ter Dimension b linear abbildet.
WoSa 20:18, 27. Apr 2004 (CEST)