Alexander Fufaev
Ich heiße Alexander FufaeV und hier schreibe ich über:

Tensoren: Eine einfache Einführung

Inhaltsverzeichnis
  1. Tensor nullter und erster Stufe in der Physik
  2. Tensor zweiter Stufe in der Physik
  3. Tensoren höherer Stufen
  4. Eigenschaften von Tensoren: Symmetrisch und Antisymmetrisch Hier lernst du die wichtigste Eigenschaft von Tensoren, nämlich deren Symmetrie.
  5. Rechnen mit Tensoren Hier lernst du die Rechenregeln / Operationen für Tensoren, wie Kontraktion, Addition und Subtraktion sowie das Tensorprodukt.

Bevor wir Tensoren in ihrer allgemeinen Definition gut verstehen, lernen wir sie zuerst aus einer ingenieurwissenschaftlichen Perspektive kennen. Solange du Skalare, Vektoren und Matrizen kennst, wird es dir einfach fallen, Tensoren aus dieser Perspektive zu verstehen, denn Tensoren sind nichts anderes als eine Verallgemeinerung von Skalaren, Vektoren und Matrizen. Genauso wie wir Skalare, Vektoren und Matrizen nutzen, um physikalische Gesetze zu beschreiben, können wir Tensoren nutzen, um die Physik zu beschreiben. Tensoren sind ein noch mächtigeres Werkzeug, mit dem wir Physik beschreiben können, die allein mit Skalaren, Vektoren und Matrizen nicht formulierbar ist. Um die moderne Theorie der Gravitation zu entwickeln, musste Albert Einstein erst das Konzept der Tensoren verstehen. Erst dann konnte er die allgemeine Relativitätstheorie mathematisch formulieren.

Tensor nullter und erster Stufe in der Physik

Fangen wir mit dem einfachsten Tensor an: Der Tensor nullter Stufe. Das ist ein Skalar \( \sigma \), also eine gewöhnliche Zahl. Dieser Tensor hat eine einzige Komponente und repräsentiert beispielsweise die elektrische Leitfähigkeit eines Drahts. Dieser Tensor nullter Stufe gibt also an, wie gut ein Draht den elektrischen Strom leitet.

Ein etwas komplexerer Tensor, bezeichnen wir ihn mit \(\boldsymbol{j} \), ist Tensor erster Stufe. Das ist ein Vektor mit drei Komponenten \(j_1\), \(j_2\) und \(j_3\) im dreidimensionalen Raum:

Natürlich kann der Vektor genauso zwei Komponenten oder mehr als drei Komponenten beschreiben, wie das in der allgemeinen Relativitätstheorie der Fall ist, wo wir mit Tensoren in einer vierdimensionalen Raumzeit arbeiten. Dieser Tensor erster Stufe kann beispielsweise die Stromdichte in einem Draht beschreiben.

In 1 haben wir den Tensor erster Stufe als Spaltenvektor dargestellt. Natürlich können wir ihn genauso als Zeilenvektor darstellen:

Zum jetzigen Zeitpunkt spielt es keine Rolle, wie wir die Komponenten aufschreiben. Bedenke aber, dass es später eine Rolle spielen wird!

Die Notation von Tensoren erster Stufe als Zeilen- oder Spaltenvektor ist nur dann sinnvoll, wenn wir mit konkreten Zahlen rechnen, wie z.B. in der Computerphysik, wo wir Tensoren nutzen, um konkrete Zahlen herauszubekommen. Um damit theoretisch zu rechnen, um beispielsweise irgendwelche Gleichungen herzuleiten oder einfach eine physikalische Theorie zu fomulieren, werden die Tensoren kompakt in Indexnotation formuliert. Diese kennst du sicherlich bereits aus der Vektorrechnung. Statt alle drei Komponenten des Tensors erster Stufe auszuschreiben, schreiben wir sie mit einem Index \(k\), also so \(j_k\). Wie wir den Index bezeichnen spielt dabei keine Rolle. \(j_k\) steht stellvertretend für die erste Komponente \(j_1\), zweite \(j_2\) oder dritte \(j_3\) Komponente, je nachdem was wir für Index \(k\) konkret einsetzen. In der theoretischen Physik setzen wir meistens nichts Konkretes ein, weil wir die Physik möglichst allgemein und kompakt schreiben wollen.

Aus dieser Indexnotation \(j_k\) ist es nicht ersichtlich, ob sie einen Spalten- oder Zeilenvektor repräsentiert. Das ist nicht gut, denn später wird es wichtig sein, Spalten- und Zeilenvektoren zu unterscheiden. Aber diese Unterscheidung können wir leicht in unsere Indexnotation einführen, indem wir den Index unten notieren \(j_k\), wenn wir einen Zeilenvektor meinen. Und wir notieren den Index oben \(j^k\), wenn wir damit einen Spaltenvektor meinen. Die Notation von Indizes oben und unten hat eine tiefere Bedeutung, die wir später kennenlernen werden. Zum jetzigen Zeitpunkt unterscheiden wir damit lediglich die Darstellung des Tensors erster Stufe.

Tensor zweiter Stufe in der Physik

Der nächst komplexere Tensor, ist Tensor zweiter Stufe. Bezeichnen wir diesen Tensor mit einem \( \sigma \), denn ein Tensor zweiter Stufe kann ebenfalls die elektrische Leitfähigkeit beschreiben wie ein Tensor nullter Stufe. Elektrische Leitfähigkeit als Tensor nullter Stufe beschreibt ein isotropes Material. Die Leitfähigkeit als Tensor zweiter Stufe dagegen, beschreibt ein nicht-isotropes Material, indem die Leitfähigkeit unterschiedlich ist, je nach dem in welche Richtung der Strom fließt.

Auch diesen Tensor hast du sicherlich schon in der Mathematik in der Matrixdarstellung kennengelernt. In einem dreidimensionalen Raum ist der Tensor zweiter Stufe eine 3x3-Matrix:

Auch beim Tensor zweiter Stufe nutzen wir die Indexnotation aus und notieren die Komponenten der Matrix beispielsweise mit \(\sigma_{mk}\). Hierbei können die Indizes m und k die Werte 1, 2 oder 3 annehmen. Der Index m gibt die Zeile an und der Index \(k\) gibt die Spalte an.

Tensoren höherer Stufen

Das Spiel können wir weiter fortführen und einen Tensor dritter Stufe betrachten. Dieser hat dann drei Indizes \( \sigma_{mkn} \). Der Tensor vierter Stufe hat vier Indizes: \( \sigma_{mkni} \). Und so weiter. Die Indizes eines Tensors beliebiger Stufe können auch hochgestellt sein. Zum Beispiel die Indizes \(mk\) beim Tensor vierter Stufe können oben stehen und die Indizes \(ni\) unten: \({\sigma^{mk}}_{ni} \). Was das genau zu bedeuten hat, erfährst du in den nächsten Kapiteln.

Die Anzahl der Komponenten \( d^r \) eines Tensors hängt von der Raumdimension \( d \) und von der Stufe (Rang) \(r\) des Tensors ab. In einem dreidimensionalen Raum \( ( d=3 )\) hat ein Tensor zweiter Stufe \( ( r=2 )\) folglich \( 3^2 = 9\) Komponenten.

Eigenschaften von Tensoren: Symmetrisch und Antisymmetrisch

In der theoretischen Physik, insbesondere in der Relativitätstheorie und Quantenmechanik, werden wir regelmäßig symmetrischen und antisymmetrischen Tensoren begegnen.

Ein symmetrischer Tensor \( t_{ij} \) bleibt gleich, wenn wir seine Indizes vertauschen: \( t_{ij}=t_{ji} \). Konkret bedeutet die Vertauschung der Indizes des Tensors zweiter Stufe als Matrix, dass die Matrix gleich bleibt, wenn wir sie transponieren, also Zeilen und Spalten an der Diagonalen spiegeln:

Diese Symmetrie-Eigenschaft von Tensoren ist sehr nützlich und vereinfacht die Berechnungen in der Computerphysik enorm. Außerdem ist diese Eigenschaft entscheidend in der Quantenmechanik, denn symmetrische Matrizen haben reale Eigenwerte. Sie repräsentieren also physikalische Größen (wir nennen sie Observablen), die wir in einem Experiment messen können. Wenn du also einen symmetrischen Tensor vor dir hast, dann solltest du als theoretischer Physiker sofort einen Dopaminkick bekommen. Das Kronecker-Delta \( \delta_{mk} \) ist beispielsweise ein konkretes Beispiel für einen einfachen symmetrischen Tensor.

Wir haben einen Tensor zweiter Stufe betrachtet. Was ist, wenn der Tensor einer höheren Stufe ist? Wie sieht es dann mit seiner Symmetrieeigenschaft aus? Wenn der Tensor beispielsweise vier Indizes hat: \( t_{\class{red}{m}\class{blue}{k}ni} \), und er gleich bleibt, wenn wir die ersten beiden Indizes vertauschen: \( t_{\class{red}{m}kni}=t_{\class{blue}{k}\class{red}{m}ni} \), dann sprechen wir von einem symmetrischen Tensor in den ersten beiden Indizes oder etwas genauer: symmetrisch in den \( \class{red}{m}\class{blue}{k} \) Indizes.

Wir werden aber auch Tensoren antreffen, die antisymmetrisch sind. Ein antisymmetrischer Tensor \( t_{ij} \) ändert das Vorzeichen, wenn wir seine Indizes vertauschen: \( t_{ij}=-t_{ji} \). Wenn der antisymmetrische Tensor als Matrix dargestellt ist, dann ist er gleich seinem negativen Transponierten:

Die meisten Tensoren sind leider weder symmetrisch noch antisymmetrisch. Aber das Tolle ist: Mathematisch können wir jeden Tensor \( t_{ij} \) in einen symmetrischen \( s_{ij} \) und einen antisymmetrischen \( a_{ij} \) Anteil zerlegen: \( t_{ij} = s_{ij} + a_{ij} \).

Beispiel: Wie man einen Tensor zweiter Stufe zerlegt

Schauen wir uns an, wie wir einen allgemeinen Tensor \( t_{ij} \) zweiter Stufe in die beiden Anteile praktisch zerlegen.

  1. Der symmetrische Anteil \( s_{ij} \) des Tensors \( t_{ij} \) ist \( s_{ij}=\frac{1}{2}\left(t_{ij}+t_{ji} \right) \). Hier haben wir die beiden Indizes vertauscht und die beiden Tensoren zusammenaddiert. Der Faktor \( \frac{1}{2} \) ist wichtig, weil wir den Tensor hier doppelt gezählt haben.

  2. Der antisymmetrische Anteil \( a_{ij} \) des Tensors \( t_{ij} \) ist \( a_{ij}=\frac{1}{2}\left(t_{ij}-t_{ji}\right) \). Hier haben wir die beiden Indizes vertauscht, dadurch bekommt der vertauschte Tensor ein Minuszeichen. Dann addieren wir die beiden Tensoren zusammen. Auch hier darf der Faktor \( \frac{1}{2} \) nicht fehlen.

  3. Anschließend addieren wir den symmetrischen und antisymmetrischen Anteil zusammen, um den gesamten Tensor zu erhalten:

Wir sind fertig. Der erste Summand ist der symmetrische Anteil des Tensors \( t_{ij} \) und der zweite Summand ist der antisymmetrische Anteil.

Rechnen mit Tensoren

Mit Tensoren allein können wir wenig anfangen. Wir müssen mit ihnen rechnen können. Dafür gibt es mehrere Rechenoperationen, mit denen wir zwei Tensoren \( a \) und \( b \) zu einem neuen Tensor \( c \) kombinieren können.

Addition von Tensoren

Wir können zwei Tensoren \( a_{\class{red}{i}\class{blue}{j}} \) und \( b_{\class{red}{i}\class{blue}{j}} \) gleicher Stufe addieren:

Das Ergebnis ist ein neuer Tensor \( c_{\class{red}{i}\class{blue}{j}} \) gleicher Stufe. Wenn wir die Tensoren \( a_{\class{red}{i}\class{blue}{j}} \) und \( b_{\class{red}{i}\class{blue}{j}} \) als Matrizen repräsentieren, dann ist das Addieren von Tensoren nichts anderes als das komponentenweise Addieren von Matrizen. Die Komponente \( a_{\class{red}{1}\class{blue}{1}} \) der Matrix \(a\) in der ersten Zeile und ersten Spalte wird mit der Komponente \( b_{\class{red}{1}\class{blue}{1}} \) der Matrix \( b \) addiert, die ebenfalls in der gleichen Spalte und gleichen Zeile ist. So funktioniert eben die Matrizenaddition. Analog gehen wir mit allen anderen Komponenten vor:

Das Ergebnis ist die Matrix \( c \).

Subtraktion von Tensoren

Wir können zwei Tensoren \( a_{\class{red}{i}\class{blue}{j}} \) und \( b_{\class{red}{i}\class{blue}{j}} \) gleicher Stufe subtrahieren:

Das Ergebnis ist ein neuer Tensor \( c_{\class{red}{i}\class{blue}{j}} \) gleicher Stufe. Die Subtraktion funktioniert analog zur Addition. Tausche einfach das Pluszeichen in Gl. 7 durch ein Minuszeichen um.

Das äußere Produkt von Tensoren (Tensorprodukt)

Die nächste Rechenoperation ist wahrscheinlich neu für dich, nämlich das äußere Produkt \( \otimes \). Manchmal wird es auch kurz Tensorprodukt genannt. Hier werden nicht die gleichen Komponenten miteinander verrechnet wie bei Addition und Subtraktion von Tensoren. Für diese Rechenoperation müssen wir also die Indizes des Tensors \( a_{\class{red}{i}\class{blue}{j}} \) und \( b_{\class{green}{k}\class{violet}{m}} \) anders bezeichnen. Der Tensor \( b_{\class{green}{k}\class{violet}{m}} \) hat daher die Indizes \( \class{green}{k} \) und \( \class{violet}{m} \) bekommen:

Wenn wir das Tensorprodukt von Tensoren zweiter Stufe bilden, dann ist das Ergebnis \( c_{\class{red}{i}\class{blue}{j}\class{green}{k}\class{violet}{m}} \) ein Tensor vierter Stufe. Wenn wir dagegen das Tensorprodukt von Tensoren \( a_{\class{red}{i}} \) und \( b_{\class{green}{k}} \) erster Stufe bilden, dann ist das Ergebnis ein Tensor zweiter Stufe:

So funktioniert das Tensorprodukt mit zwei Tensoren beliebiger Stufe. Die einzige Ausnahme bilden die Tensoren nullter Stufe. In diesem Fall bleibt das Ergebnis ein Tensor nullter Stufe. Üblicherweise wird das Tensorzeichen \( \otimes \) in 10 und 11 weggelassen.

Machen wir ein konkretes Beispiel für das Tensorprodukt, das wir gut veranschaulichen können, nämlich das Tensorprodukt von Tensoren erster Stufe wie in 11. Sie werden durch die Vektoren repräsentiert: \( a=\left[a_{\class{red}{1}},a_{\class{red}{2}},a_{\class{red}{3}}\right] \) und \( b=\left[b_{\class{green}{1}}, b_{\class{green}{2}},b_{\class{green}{3}} \right] \). Das Ergebnis ist ein Tensor zweiter Stufe, der durch eine Matrix repräsentiert wird:

Der erste Index, der Index \(\class{red}{i}\) nummeriert definitionsgemäß die Zeilen der Matrix und der zweite Index, der Index \(\class{green}{k}\), nummeriert die Spalten.

Das Tensorprodukt muss nicht unbedingt zwischen zwei Tensoren gleicher Stufe sein. Wir können auch beispielsweise das Tensorprodukt mit dem Tensor dritter Stufe \( A_{\class{red}{i}\class{blue}{j}\class{green}{m}} \) und zweiter Stufe \( B_{\class{purple}{k}\class{violet}{n}} \) bilden. Das Ergebnis ist ein Tensor fünfter Stufe \( C_{\class{red}{i}\class{blue}{j}\class{green}{m}\class{purple}{k}\class{violet}{n}} \):

Wie du wahrscheinlich schon gemerkt hast, stellt beispielsweise \( B_{\class{purple}{k}\class{violet}{n}} \) konkret die \(\class{purple}{k}\class{violet}{n}\)-te Komponente des Tensors \(B\) dar. Und \( A_{\class{red}{i}\class{blue}{j}\class{green}{m}} \) ist die \(\class{red}{i}\class{blue}{j}\class{green}{m}\)-te Komponente des Tensors \(A\). Bilden wir das Tensorprodukt wie in 13, dann ist das das Tensorprodukt der Komponenten. Das Ergebnis ist die \(\class{red}{i}\class{blue}{j}\class{green}{m}\class{purple}{k}\class{violet}{n}\)-te Komponente des Tensors \(C\). Wenn wir einen Tensor mit Indizes notieren, dann meinen wir damit stets seine Komponenten. Wir sagen trotzdem salopp »Tensor« zu seiner Komponentenschreibweise.

Das Tensorprodukt funktioniert natürlich genauso mit hochgestellten Indizes, die wir in dem nächsten Kapitel kennenlernen werden. Wenn bei dem Tensor die Indizes \(\class{red}{i}\class{blue}{j}\) oben stehen, dann müssen sie auch bei dem Ergebnistensor \(C\) oben stehen:

Kontraktion (Verjüngung) von Tensoren

Die nächste Rechenoperation, die wir durchführen können, ist die Kontraktion eines Tensors (manchmal auch Verjüngung genannt). Dazu betrachten wir als Beispiel den Tensor vierter Stufe: \( t_{ijmk} \). Die Kontraktion dieses Tensors bedeutet Folgendes:

  1. Wir wählen zwei seiner Indizes. Zum Beispiel den Index \(i\) und \(m\): \( t_{\class{red}{i}j\class{red}{m}k} \).
  2. Dann setzen wir die beiden Indizes gleich: \( \class{red}{i}=\class{red}{m} \). Wir können sie beispielsweise beide \(\class{red}{i}\) nennen: \( t_{\class{red}{i}j\class{red}{i}k} \).
  3. Anschließend summieren wir über den Index \(\class{red}{i}\): \( \underset{\class{red}{i}~=~1}{\boxed{+}} \, t_{\class{red}{i}j\class{red}{i}k} \). Im dreidimensionalen Raum geht der Index \(\class{red}{i}\) von 1 bis 3, daher ergibt die Kontraktion des Tensors \( t_{ijmk} \) die folgende Summe: \( t_{\class{red}{1}j\class{red}{1}k}+t_{\class{red}{2}j\class{red}{2}k}+t_{\class{red}{3}j\class{red}{3}k} \).

Wenn wir diese drei Schritte einem anderen Physiker kommunizieren wollen, dann sagen wir: Kontraktion der Indizes \( \class{red}{i} \) und \( \class{red}{m} \) des Tensors \(t_{\class{red}{i}j\class{red}{m}k}\). Oder: Kontraktion des ersten und dritten Index des Tensors \(t_{\class{red}{i}j\class{red}{m}k}\).

Die Kontraktion ist sehr nützlich, weil sie die Ordnung eines Tensors reduziert. So hat die Kontraktion des Tensors \(t_{\class{red}{i}j\class{red}{m}k}\) vierter Stufe seine Ordnung um zwei reduziert. Das Ergebnis der Kontraktion ist ein Tensor zweiter Stufe: \( t_{\class{red}{i}j\class{red}{i}k} = c_{jk}. \)

In der Physik nutzen wir die Einstein-Summenkovention, die besagt, dass wir zur Vereinfachung der Notation das Summenzeichen in \( \underset{\class{red}{i}~=~1}{\boxed{+}} \, t_{\class{red}{i}j\class{red}{i}k} \) weglassen können, wenn in einem Tensor zwei gleiche Indizes auftauchen. Beim Tensor \( t_{\class{red}{i}j\class{red}{i}k} \) in Kombination mit der Einstein-Summenkonvention wird also über den Index \(\class{red}{i}\) summiert: \( t_{\class{red}{i}j\class{red}{i}k} = t_{\class{red}{1}j\class{red}{1}k}+t_{\class{red}{2}j\class{red}{2}k}+t_{\class{red}{3}j\class{red}{3}k} \).

Wenn wir einen Tensor zweiter Stufe kontrahieren \( t_{\class{red}{i}\class{red}{i}} \), dann wird die Kontraktion auch Spur \( \mathrm{Tr}(t) \) des Tensors genannt: \( t_{\class{red}{i}\class{red}{i}} = t_{\class{red}{1}\class{red}{1}}+t_{\class{red}{2}\class{red}{2}}+t_{\class{red}{3}\class{red}{3}}=\mathrm{Tr}(t) \). Das Ergebnis ist ein Tensor nullter Stufe, also ein Skalar.

Wir können natürlich auch die Indizes zweier unterschiedlicher Tensoren kontrahieren. Nehmen wir beispielsweise einen Tensor \( M_{i\class{red}{j}} \) und einen Tensor \(v_{\class{red}{k}}\). Das Tensorprodukt \( M_{i\class{red}{j}}v_{\class{red}{k}} \) ohne Kontraktion ergibt einen Tensor dritter Stufe. Nun kontrahieren wir die Indizes \(\class{red}{j}\) und \(\class{red}{k}\). Dann entspricht das in der Matrix- und Vektordarstellung genau der Multiplikation einer Matrix \(M\) mit einem Vektor \(v\). Das Ergebnis \(u_i\) ist ein Tensor erster Stufe, also ein Vektor: