Alexander Fufaev
Ich heiße Alexander FufaeV und hier schreibe ich über:

Bra-Ket-Notation

Inhaltsverzeichnis
  1. Wellenfunktion als Vektor im Hilbertraum Hier lernst du, wie die Wellenfunktion aus der Quantenmechanik als ein unendlichdimensionaler Vektor aufgefasst werden kann, der im Hilbertraum lebt.
  2. Bra- und Ket-Vektoren Hier lernst du, wie Bra- und Ket-Vektoren definiert sind und wie sie miteinander zusammenhängen.
  3. Skalarprodukt und Inneres Produkt in Bra-Ket-Notation Hier lernst du, wie die Bra-Ket-Notation dazu benutzt werden kann, um das Überlappungsintegral als Skalarprodukt der Bra-Ket-Vektoren aufzufassen.
  4. Tensorprodukt in Bra-Ket-Notation
  5. Basiswechsel mit den Projektionsmatrizen

Wellenfunktion als Vektor im Hilbertraum

Betrachte irgendeine eindimensionale Wellenfunktion \( \mathit{\Psi}(x)\), die ein quantenmechanisches Teilchen beschreibt. Der Wert der Wellenfunktion, beispielsweise am Ort \( \class{red}{x_1} \) ist \( \mathit{\Psi}(\class{red}{x_1}) \), am Ort \(\class{green}{x_2}\) ist der Funktionswert \( \mathit{\Psi}(\class{green}{x_2}) \), am Ort \(\class{blue}{x_3}\) ist er \( \mathit{\Psi}(\class{blue}{x_3}) \) und so weiter. Du kannst auf diese Weise, anschaulich gesagt, jedem \(x\)-Wert einen Funktionswert zuweisen. Wir können dann die ganzen Funktionswerte als eine Liste von Werten darstellen. Diese Liste von Werten können wir als einen Spaltenvektor \( \mathit{\Psi}\) auffassen, der in einem abstrakten Raum lebt. Der Vektor hat dann die Komponenten:

Wir können diesen Vektor sogar wie in der linearen Algebra veranschaulichen (siehe Illustration 1, rechts). Die erste Komponente \( \mathit{\Psi}(\class{red}{x_1}) \) bildet die erste Koordinatenachse, die zweite Komponente \( \mathit{\Psi}(\class{green}{x_2}) \) die zweite Achse und die dritte Komponente \( \mathit{\Psi}(\class{blue}{x_3}) \) die dritte Achse. Wir bleiben bei nur drei Komponenten, weil ich kein vierdimensionales Koordinatensystem zeichnen kann. Jede Komponente bekommt eine Koordinantenachse zugewiesen. Auf diese Weise spannen die drei Komponenten einen dreidimensionalen Raum auf.

Links: Reelle Wellenfunktion \(\Psi(x)\) und ihre drei Beispiel-Funktionswerte. Rechts: Drei Funktionswerte spannen ein näherungsweises Koordinatensystem auf, in dem die Wellenfunktion \(\Psi\) als Vektor aufgefasst wird.

Sobald wir noch einen zusätzlichen Funktionswert \( \mathit{\Psi}(\class{brown}{x_4}) \) dazu nehmen, wird der Raum vierdimensional und so weiter. Den Vektor \( \mathit{\Psi} \), der eine Wellenfunktion \( \mathit{\Psi}(x) \) repräsentiert, bezeichnen wir als Zustandsvektor.

Theoretisch gibt es natürlich unendlich viele \( x \)-Werte. Deshalb gibt es auch unendlich viele dazugehörige Funktionswerte \( \mathit{\Psi}(x) \). Wenn es unendlich viele Funktionswerte \( \mathit{\Psi}(x) \) gibt, ist der Raum, in dem der Zustandsvektor \( \mathit{\Psi}\) lebt, unendlich-dimensional. Denk dran, dass das kein unendlich-dimensionaler Ortsraum ist, sondern ein abstrakter Raum, wie in der Illustration 1 gezeigt.

Dieser abstrakte Raum, in dem quantenmechanische Zustandsvektoren leben, heißt Hilbertraum. Im Allgemeinen ist das ein unendlich-dimensionaler Vektorraum. Die Spinzustände \( \mathit{\Psi}_{ \uparrow} \) (spin-up) und \( \mathit{\Psi}_{ \downarrow} \) (spin-down), die ein einzelnes Teilchen beschreiben, leben beispielsweise in einem zweidimensionalen Hilbert-Raum. Das heißt: Die Zustandsvektoren wie der Spin-Up Zustand \( \mathit{\Psi}_{ \uparrow} \) haben nur zwei Komponenten.

Wenn du eine unendlich-dimensionale Wellenfunktion beispielsweise für numerische Berechnungen mit dem Computer, durch endlich viele Funktionswerte annäherst (anders geht es ja nicht), wird der Zustandsvektor \( \mathit{\Psi}\) endlich viele Komponenten haben. Je mehr Komponenten \(n\) du nimmst, desto genauer wird der Zustandsvektor!

Wenn der Hilbertraum endlich-dimensional ist, dann lebt ein \( \mathit{\Psi}\)-Vektor, wie 2, mit \(n\) Komponenten, in einem \(n\) dimensionalen Hilbertraum.

Bra- und Ket-Vektoren

Wie du gesehen hast, können wir also ein quantenmechanisches Teilchen auf zwei Weisen repräsentieren:

  • als Wellenfunktion

  • als Zustandsvektor

Damit wir die Beschreibung des Teilchens als Zustandsvektor von der Beschreibung als Wellenfunktion unterscheiden können, notieren wir den Zustandsvektor 1 folgendermaßen:

Wellenfunktion \(\mathit{\Psi}(x)\) dargestellt als Spaltenvektor wird Ket-Vektor \(|\mathit{\Psi}\rangle\) genannt. Dabei ist es egal, was du zwischen \( | ~~ \rangle \) schreibst. Du hättest beispielsweise genauso \(|\mathit{\Psi}(x)\rangle\) schreiben können. Hauptsache es ist aus der Ket-Notation klar, welches quantenmechanisches System der Ket-Vektor 3 repräsentiert.

  • Wenn du also die Ket-Notation \(|\mathit{\Psi}\rangle\) siehst, dann weißt du, dass damit die Vektordarstellung des Teilchenzustands gemeint ist.

  • Wenn du dagegen \(\mathit{\Psi}(x)\) siehst, dann weißt du, dass damit die Darstellung des Teilchenzustands als Wellenfunktion gemeint ist.

Der zum Ket-Vektor adjungierte Vektor \( |\mathit{\Psi}\rangle^\dagger \) wird Bra-Vektor genannt. Das Zeichen '\(\dagger\)' wird als 'dagger' ausgesprochen, was übersetzt 'Dolch' heißt. Für eine raffinierte, kompakte Notation schreiben wir den Bra-Vektor mit einem umgekehrten Pfeil: \(|\mathit{\Psi}\rangle^\dagger ~:=~ \langle\mathit{\Psi}|\). Beachte, dass 'adjungieren' manchmal auch 'Hermitesch konjugieren' genannt wird.

Um den zum Ket-Vektor \( |\mathit{\Psi}\rangle \) adjungierten Bra-Vektor \( \langle\mathit{\Psi}| \) zu erhalten, musst du zwei Dinge tun:

  1. Den Ket-Vektor 3 transponieren. Dadurch wird er zu einem Zeilenvektor:

  2. Den transponierten Ket-Vektor komplex-konjugieren. Dadurch kommen 'Sternchen' an die Komponenten.

Was sind Bra-Ket-Vektoren?

Die Wellenfunktion \(\mathit{\Psi}\) in der Vektordarstellung entspricht dem Ket-Vektor \(|\mathit{\Psi}\rangle\) und der zum Ket-Vektor adjungierte Zeilenvektor \(\langle\mathit{\Psi}|\) ist der Bra-Vektor.

Da wir die Wellenfunktion \(\mathit{\Psi}\) als Ket-Vektor \(| \mathit{\Psi} \rangle\) interpretiert haben, können wir mit ihr praktisch auf die gleiche Weise arbeiten wie mit gewöhnlichen Vektoren, die du aus der linearen Algebra kennst. Zum Beispiel können wir ein Skalarprodukt oder ein Tensorprodukt zwischen den Bra- oder Ket-Vektoren bilden. Was für Dich wahrscheinlich neu ist, ist, dass die Komponenten des Vektors komplex sein können und die Anzahl der Komponenten unendlich sein kann.

Skalarprodukt und Inneres Produkt in Bra-Ket-Notation

Wir können das Skalarprodukt \(\langle\mathit{\Phi} | \mathit{\Psi} \rangle\) zwischen einem Bra-Vektor \(\langle\mathit{\Phi} | \) und einem Ket-Vektor \( | \mathit{\Psi} \rangle \) bilden. Hier brauchen wir den Punkt des Skalarprodukts nicht einzubeziehen und können eine vertikale Linie weglassen. Wir schreiben \(\langle\mathit{\Phi} | \mathit{\Psi} \rangle\) anstelle von \( \langle\mathit{\Phi} | ~\cdot~ | \mathit{\Psi} \rangle \).

Wenn die Zustandsvektoren, zwischen denen man das Skalarprodukt bildet, in einem unendlich dimensionalen Hilbert-Raum liegen, dann nennen wir diese Operation nicht Skalarprodukt, sondern inneres Produkt \(\langle\mathit{\Phi} | \mathit{\Psi} \rangle\). Die Schreibweise des inneren Produkts bleibt jedoch dieselbe wie im Fall des Skalarprodukts.

In einem endlichen \(n\)-dimensionalen Hilbert-Raum sieht das Skalarprodukt \(\langle\mathit{\Phi} | \mathit{\Psi} \rangle\) zwischen einem beliebigen Bra-Vektor \(\langle\mathit{\Phi} | \) und einem Ket-Vektor \( | \mathit{\Psi} \rangle \) wie folgt aus:

Die Indizes \( \class{red}{1} \), \( \class{green}{2} \), \( \class{blue}{3} \) bis \( n \) an den Komponenten sind nur eine Kurzschreibweise für die Funktionswerte. Zum Beispiel steht die Komponente \( \mathit{\Psi}_{\class{red}{1}} \) für den Funktionswert \( \mathit{\Psi}(\class{red}{x_1}) \). Du kannst die Vektoren in 6 genauso ausmultiplizieren, wie du es mit der üblichen Matrixmultiplikation machst:

Du kannst Gleichung 7 mit einem Summenzeichen kürzer schreiben:

Dabei ist \( n \) die Dimension des Hilbert-Raums, das heißt die Anzahl der Komponenten eines Zustandsvektors, der in diesem Hilbert-Raum lebt. Wenn die Dimension \(n\) des Hilbert-Raums unendlich ist, dann ist die Summe nur eine Annäherung.

Nimmst du zwei normierte und orthogonale Zustände \( \mathit{\Psi}_{\class{red}{i}} \) und \( \mathit{\Psi}_{\class{blue}{j}} \) und versiehst sie mit variablen Indizes statt mit festen Werten, dann ergibt deren Skalarprodukt \( \langle \mathit{\Psi}_{\class{red}{i}} | \mathit{\Psi}_{\class{blue}{j}} \rangle \) entweder 0 oder 1. Diese Eigenschaft kennst du aus der linearen Algebra, wenn du das Skalarprodukt zweier Basisvektoren bildest:

  • Das Skalarprodukt von zwei verschiedenen orthonormalen Zuständen, \(\class{red}{i} \neq \class{blue}{j} \), ergibt: \( \langle \mathit{\Psi}_{\class{red}{i}} | \mathit{\Psi}_{\class{blue}{j}} \rangle = 0\).

  • Das Skalarprodukt von zwei gleichen, orthonormalen Zuständen, \(\class{red}{i} = \class{blue}{j} \), ergibt: \( \langle \mathit{\Psi}_{\class{red}{i}} | \mathit{\Psi}_{\class{blue}{j}} \rangle = 1\).

Diese zwei Fällen können in einer einzigen Gleichung mithilfe des Kronecker-Deltas \( \delta_{\class{red}{i}\class{blue}{j}} \) kombiniert werden:

Das Skalarprodukt 8 mit dem Summenzeichen ist für Zustände aus dem unendlich-dimensionalen Hilbertraum nicht exakt, weil wir eben viele Funktionswerte zwischen \( x_{\class{red}{1}} \) und \( x_{\class{green}{2}} \) weglassen würden. Bei unendlich-dimensionalen Zuständen müssen wir zu einem Integral übergehen. Wir ersetzen daher das Summenzeichen durch ein Integralzeichen. Die Funktionswerte \( \mathit{\Phi}_{\class{red}{i}} \) und \( \mathit{\Psi}_{\class{red}{i}} \) betrachten wir jetzt natürlich nicht an diskreten Punkten \( \class{red}{x_i} \), sondern an allen Punkten \(x\):

Um das innere Produkt zweier Zustäne \( \langle\mathit{\Phi} | \) und \( | \mathit{\Psi} \rangle \) zu berechnen, müssen wir das Integral 10 berechnen.

Was sagt eigentlich dieses innere Produkt (oder ein Skalarprodukt) anschaulich aus? Das innere Produkt ist genauso wie ein Skalarprodukt eine Zahl, die misst, wie stark sich zwei Zustände überlappen:

  • Wenn das innere Produkt zweier normierter Zustände ist \( \langle\mathit{\Phi} | \mathit{\Psi} \rangle = 1 \), dann liegen die entsprechenden Wellenfunktionen \( \Phi \) und \( \Psi \) genau übereinander.

  • Wenn das innere Produkt zweier normierter Zustände ist \( \langle\mathit{\Phi} | \mathit{\Psi} \rangle = 0 \), dann überlappen sich die Wellenfunktionen \( \Phi \) und \( \Psi \) gar nicht.

  • Alle Werte des inneren Produkts \( \langle\mathit{\Phi} | \mathit{\Psi} \rangle \) zwischen 1 und 0 ergeben nur eine teilweise Überlappung der beiden Zustände.

Überlapp zweier eindimensionaler, reeller Wellenfunktionen, um das innere Produkt zu veranschaulichen.

Tensorprodukt in Bra-Ket-Notation

Eine weitere wichtige Operation zwischen einem Bra- und einem Ket-Vektor ist das Tensorprodukt: \(|\mathit{\Phi} \rangle ~\otimes~ \langle\mathit{\Psi} |\). Wir können das Tensorsymbol \(\otimes\) weglassen, weil aus der Bra-Ket-Schreibweise sofort ersichtlich ist, dass es sich nicht um ein Skalar- oder inneres Produkt handelt: \(|\mathit{\Phi} \rangle \langle\mathit{\Psi} |\). Die Bra- und Ket-Vektoren sind hier vertauscht.

Das Ergebnis des Tensorprodukts ist eine Matrix. Wenn die Zustände \(|\mathit{\Phi} \rangle\) und \(|\mathit{\Psi} \rangle\) jeweils nur drei Komponenten haben, dann bekommen wir eine 3x3-Matrix. Wie du es von der Matrixmultiplikation kennen solltest, multiplizieren wir hier einen Ket-Vektor \(|\mathit{\Phi} \rangle\), der ein Spaltenvektor ist, mit einem Bra-Vektor \( \langle\mathit{\Psi} |\), der ein Zeilenvektor ist:

Derartigen Matrizen wirst du sehr oft in Form von Dichtematrizen in der Quantenmechanik begegnen, zum Beispiel, wenn du über Quantenverschränkung lernst.

Nehmen wir einen normierten Zustand \( |\mathit{\Psi} \rangle \), das heißt der Betrag dieses Vektors ist 1 und bilden wir das Tensorprodukt dieses Zustands mit sich selbst, dann bekommen wir eine Projektionsmatrix \(|\mathit{\Psi} \rangle \langle\mathit{\Psi} | \) (oder Projektionsoperator, wenn keine konkrete Komponenten betrachtet werden):

Wenn wir die Projektionsmatrix auf irgendeinen Ket-Vektor anwenden, dann multiplizieren wir eine Matrix \( |\mathit{\Psi} \rangle \langle\mathit{\Psi} | \) mit einem Spaltenvektor \( |\mathit{\Phi} \rangle \):

Das Besondere an einer Projektionsmatrix ist: Sie projiziert den Zustand \( | \mathit{\Phi}\rangle \) auf den Zustand \( | \mathit{\Psi}\rangle \). Anschaulich gesagt: Sie gibt den Anteil der Wellenfunktion \( \mathit{\Phi} \), der mit der Wellenfunktion \( \mathit{\Psi} \) überlappt. Das Ergebnis der Projektion ist also ein Ket-Vektor \( | \mathit{\Psi} \rangle \langle \mathit{\Psi} | \, \mathit{\Phi}\rangle \), der den Überlapp der Wellenfunktionen \( \mathit{\Phi} \) und \( \mathit{\Psi} \) beschreibt. Projektionsmatritzen sind damit ein wichtiges Werkzeug in der theoretischen Physik, um den Überlapp von Quantenzuständen genauer zu untersuchen.

Basiswechsel mit den Projektionsmatrizen

Der wohl wichtigste Nutzen von Projektionsmatrizen ist der kinderleichte Basiswechsel. Wenn wir irgendeinen Quantenzustand \( |\mathit{\Phi}\rangle \) haben und ihn aus einer anderen Perspektive betrachten wollen, oder mathematisch gesagt, in einer anderen Basis darstellen wollen, dann wählen wir natürlich als erstes die gewünschte Basis: \( \{ |\mathit{\Psi}_{\class{red}{i}}\rangle \} \). Das ist, wie du hoffentlich aus der linearen Algebra weißt, eine Menge von orthonormalen Vektoren \( |\mathit{\Psi}_{\class{red}{1}}\rangle \), \( |\mathit{\Psi}_{\class{red}{2}}\rangle \), \( |\mathit{\Psi}_{\class{red}{3}}\rangle \) und so weiter. Ihre Anzahl ist gleich der Dimension des Hilbertraums, in dem diese Vektoren leben.

Nehmen wir für die Illustration an, dass unsere gewünschte Basis nur aus drei Basisvektoren besteht: \( \{ |\mathit{\Psi}_{\class{red}{1}}\rangle, |\mathit{\Psi}_{\class{red}{2}}\rangle, |\mathit{\Psi}_{\class{red}{3}}\rangle \} \). Mit jedem dieser Basisvektoren können wir Projektionsmatrizen konstruieren: \( |\mathit{\Psi}_{\class{red}{1}}\rangle\langle \mathit{\Psi}_{\class{red}{1}}| \), \( |\mathit{\Psi}_{\class{red}{2}}\rangle\langle \mathit{\Psi}_{\class{red}{2}}| \) und \( |\mathit{\Psi}_{\class{red}{3}}\rangle\langle \mathit{\Psi}_{\class{red}{3}}| \) weil jeder dieser Basisvektoren normiert ist. Um den Quantenzustand \( |\mathit{\Phi}\rangle \) in dieser Basis darzustellen, bilden wir als nächstes die Summe der Projektionsmatrizen:

Wie wir aus der Mathematik wissen, ist die Summe der Projektionsmatrizen, die eine Basis bilden, eine Einheitsmatrix \( I \). Dass die Summe eine Einheitsmatrix ergibt, ist sehr wichtig beim Basiswechsel, denn wir wollen ja nicht den Quantenzustand \( |\mathit{\Phi}\rangle \) verändern. Eine Einheitsmatrix multipliziert mit einem Spaltenvektor \( |\mathit{\Phi}\rangle \) verändert nicht diesen Vektor:

Jetzt setzen wir die Summe der Basis-Projektionsmatrizen 14 in die Einheitsmatrix in 15 ein:

Der Ergebniszustand \( |\mathit{\Phi}\rangle \), der zwar gleich wie der Zustand vor dem Basiswechsel notiert ist, ist nun in der Basis \( \{ |\mathit{\Psi}_{\class{red}{1}}\rangle, |\mathit{\Psi}_{\class{red}{2}}\rangle, |\mathit{\Psi}_{\class{red}{3}}\rangle \} \) dargestellt. Wir können ihn, wenn wir die neue Basis betonen wollen, beispielsweise auch mit einem Index \( \Psi \) versehen: \( |\mathit{\Phi}\rangle_{\Psi} \). Ich hoffe, dass du nun begriffen hast, wie nützlich das Konzenpt von Projektionsmatrizen ist!

Allgemein können wir den Basiswechsel in eine Basis mit \(n\) Basisvektoren \( \{ |\mathit{\Psi}_{\class{red}{i}}\rangle \} \) schreiben, indem wir die 3 an dem Summenzeichen in 14 einfach mit \(n\) ersetzen:

Der Basiswechsel mit endlich vielen Basisvektoren ist natürlich nur dann exakt, wenn die Zustände \( |\mathit{\Phi}\rangle \) und \( |\mathit{\Psi}\rangle \) in endlichdimensionalen Hilberträumen leben. Für Zustände mit unendlich vielen Komponenten ist \(n\) unendlich und der Zustand \( |\mathit{\Phi}\rangle_{\Psi} \) ist nur eine Näherung in der neuen Basis. Die Näherung wird umso genauer, je größer wir \(n\) wählen. Aber wie funktioniert der Basiswechsel für Zustände mit unendlich vielen Komponenten? Mit einem Integral! Ersetze dazu die diskrete Summation mit einem Summenzeichen durch eine kontinuierliche Summation mit einem Integral:

Nun solltest du ein solides Grundwissen über die Bra-Ket-Notation haben:

  • Was Bra und Ket-Vektoren sind.

  • Wie du damit Skalarprodukt und inneres Produkt bildest.

  • Wie du damit Projektionsmatrizen konstruierst.

  • Wie du mit Projektionsmatrizen in Bra-Ket-Notation einen Basiswechsel durchführst.

In der nächsten Lektion lernst du die Operatoren kennen, die in der Quantenmechanik benutzt werden, nämlich die Hermiteschen Operatoren - natürlich in Bra-Ket-Notation.