Nächste Seite: Gleichgewicht Aufwärts: Grundlagen der Thermodynamik Vorherige Seite: Grundlagen der Thermodynamik   Inhalt   Index


Entropie

Die Entropie einer Wahrscheinlichkeitsverteilung bestimmt bei wiederholten Messungen die Unkenntnis der genauen Reihenfolge der verschiedenen auftretenden Ergebnisse.

Sei $ n= \sum n_i$ die Gesamtzahl der Versuche und $ n_i$ die Häufigkeit des $ i$-ten Ergebnisses, $ i=1,\dots , N$, dann strebt $ n_i/n$ mit zunehmender Gesamtzahl $ n$ gegen die Wahrscheinlichkeit $ p_i\ne 0$. Für diese Häufigkeiten gibt es

$\displaystyle \frac{n!}{n_1!n_2!\dots n_N!}$ (6.1)

verschiedene Reihenfolgen der Ergebnisse. Der Kehrwert dieser Anzahl ist die Sicherheit, mit der wir die einzelne Reihenfolge voraussagen können. Er strebt gemäß der Stirlingschen Formel

$\displaystyle n! = \sqrt{2\pi  n} n^n \mathrm{e}^{-n} f(n) ,\quad \lim_{n\rightarrow \infty}f(n)=1 ,$ (6.2)

für zunehmendes $ n$ bis auf einen Faktor, der gegen Eins geht, gegen

$\displaystyle \sqrt{2\pi n}^{N-1}(\frac{n_1}{n})^{(n_1+\frac{1}{2})} \dots(\fr...
...row \sqrt{2\pi}^{N-1}\sqrt{p_1\dots p_N}  \mathrm{e}^{- n S+(N-1)/2 \ln n} .$ (6.3)

Der im Exponenten bei $ n$ auftretende Koeffizient ist die Entropie der Wahrscheinlichkeitsverteilung

$\displaystyle S = -\sum_{i} p_i\ln p_i .$ (6.4)

Die Entropie ist nichtnegativ, da die Wahrscheinlichkeiten $ p_i$ zwischen Null und Eins variieren. Falls allgemeiner einige $ p_i$ verschwinden, sei $ p_i\ln p_i$ stetig durch Null ergänzt.

Bei einem Gemisch sind fehlende Polarisation oder Größen wie $ 1-(\tr \rho^2)$ ein Maß dafür, wie sehr das präparierte Gemisch $ \rho$ von einem reinen Zustand abweicht. Aber ein günstigeres Maß für die Unkenntnis über den präparierten Zustand ist die Entropie des Gemisches.

Wir definieren sie als Entropie der Wahrscheinlichkeitsverteilung der Meßwerte von solchen Apparaten $ A$ mit nichtentarteten Meßwerten, deren Eigenzustände auch Eigenzustände der Dichtematrix $ \rho$ sind,6.1 $ w(i,A,\rho)=\langle \Upsilon_i\vert\rho\Upsilon_i\rangle =\rho_i$,

$\displaystyle S=- \sum_{i} \rho_i \ln \rho_i=-\tr \rho\ln \rho ,\quad \rho\Upsilon_i=\rho_i\Upsilon_i .$ (6.5)

Die Entropie eines reinen Zustands verschwindet. Sie addiert sich beim unabhängigen Zusammensetzen zweier Systeme, ändert sich nicht während der Schrödingerschen Zeitentwicklung und nimmt beim Mischen und bei zufälligen Störungen zu. Mißt man das Gemisch $ \rho$ mit einem Apparat $ B$, dessen Meßwerte nicht entartet sind und der nicht mit $ \rho$ vertauscht, so ist die Entropie ihrer Wahrscheinlichkeitsverteilung größer als die Entropie des Gemisches selbst. Diese Eigenschaften zeigen wir mit den folgenden Betrachtungen.

Ist ein Gemisch unabhängig aus zwei Teilen zusammengesetzt

$\displaystyle \rho=\hat{\rho}\otimes \tilde{\rho} ,$ (6.6)

so sind die Eigenzustände Produktzustände $ \hat{\Upsilon}_i \otimes \tilde{\Upsilon}_j$ von Eigenzuständen der Dichtematrizen $ \hat{\rho}$ und $ \tilde{\rho}$. Die Eigenwerte der zusammengesetzten Dichtematrix sind die Produkte der Eigenwerte der einzelnen Dichtematrizen

$\displaystyle \rho_{ij}=\hat{\rho}_i\tilde{\rho}_j  ,\quad \sum_i \hat{\rho}_i =1  ,\quad \sum_j \tilde{\rho}_j=1 .$ (6.7)

Daher addiert sich die Entropie unabhängig zusammengesetzter Systeme.

\begin{equation*}\begin{aligned}S&=-\sum_{ij}\hat{\rho}_i\tilde{\rho}_j\ln (\hat...
...tilde{\rho_j}\ln \tilde{\rho}_j = \hat{S}+\tilde{S} \end{aligned}\end{equation*}

Die Dichtematrix ändert sich im Laufe der Zeit (4.7), allerdings ändern sich nicht die Eigenwerte $ \rho_i$ durch die Schrödingersche Zeitentwicklung. Überträgt man in (2.79) angemessen die Notation, so folgt nämlich aus (2.79), (4.7) und der Eigenwertgleichung $ \rho \Upsilon_i = \rho_i \Upsilon_i$, daß $ \partial_t \rho_i(t)=0$ ist, denn in Eigenzuständen eines hermiteschen Operators $ \rho$ verschwindet der Erwartungswert jedes Kommutators $ [H,\rho]$.

$\displaystyle \mathrm{i}\hslash \partial_t \rho_i(t)= \mathrm{i}\hslash \langle...
...silon_i\rangle =\langle \Upsilon_i\vert(H\rho_i-\rho_i H) \Upsilon_i\rangle = 0$ (6.9)

Demnach bleibt die Entropie unverändert, solange sich die Zustände im Gemisch nach der Schrödingergleichung entwickeln.

Bei echtem Mischen von Gemischen wächst die Entropie. Ist ein Gemisch $ \rho(\lambda)$ aus verschiedenen Gemischen $ \hat{\rho}$ und $ \tilde{\rho}$, $ \hat{\rho}\ne\tilde{\rho}$, gemischt

$\displaystyle \rho (\lambda)=\lambda \hat{\rho} +(1-\lambda)\tilde{\rho}$    mit $\displaystyle \quad 0<\lambda<1 ,$ (6.10)

so ist Entropie $ S(\rho(\lambda))$ um die Mischungsentropie größer als die anteilige Summe der Entropien.

$\displaystyle S(\rho(\lambda)) > \lambda S(\hat{\rho}) +(1-\lambda)S(\tilde{\rho}) .$ (6.11)

Bevor wir diese Behauptung zeigen, zwei Vorbemerkungen:

Wenn $ \hat{\rho}\ne\tilde{\rho}$ und $ \lambda\ne \lambda^\prime$ ist, so ist auch $ \rho(\lambda)\ne \rho(\lambda^\prime)$.

Der Nullraum von $ \rho(\lambda)$ hängt für $ 0< \lambda < 1$ nicht von $ \lambda$ ab. Für jedes gewählte $ \lambda$ verschwinden nämlich im Nullraum von $ \rho(\lambda)$ auch $ \hat{\rho}$ und $ \tilde{\rho}$ und demnach auch $ \rho(\lambda^\prime)$,

\begin{equation*}\begin{aligned}\langle \Lambda \vert (\lambda \hat{\rho} + (1-\...
...mbda &=0 &\text{ und }& &\tilde{\rho} \Lambda&=0 . \end{aligned}\end{equation*}

Die erste Folgerung gilt, weil $ \lambda$ und $ (1-\lambda)$ größer Null und Hauptdiagonalelemente von Dichtematrizen nichtnegativ (1.42) sind. Die zweite Folgerung ist richtig, weil Hauptdiagonalelemente $ \langle \Lambda \vert \rho \Lambda \rangle$ einer Dichtmatrix $ \rho$ nur verschwinden, wenn $ \rho\Lambda=0$ ist (1.43).

Nach diesen Vorbemerkungen beweisen wir für verschiedene Dichtematrizen $ \rho$ und $ \rho^\prime, \rho\ne \rho^\prime$, wobei $ \rho^\prime$ nichtverschwindende Eigenwerte habe, den Hilfssatz

$\displaystyle \tr \rho \ln \rho^\prime < \tr \rho \ln \rho .$ (6.13)

Werten wir nämlich die Spur in der Eigenbasis $ \Upsilon_i$ von $ \rho$ aus und schieben wir eine Zerlegung der Eins mit den Eigenzuständen $ \Upsilon_i^\prime$ von $ \rho^\prime$ ein, so erhalten wir

\begin{equation*}\begin{aligned}\tr \rho(\ln \rho^\prime -\ln \rho)&= \sum_{ij}\...
...le \vert^2\rho_i\ln \frac{\rho_j^\prime}{\rho_i} . \end{aligned}\end{equation*}

Es gilt für positive $ x$ die Abschätzung $ \ln x \le (x-1)$, wobei Gleichheit nur für $ x=1$ auftritt. Wenn die Matrizen $ \rho$ und $ \rho^\prime$ verschieden sind, gibt es mindestens ein Paar von Eigenwerten $ \rho_j^\prime$ und $ \rho_i, \rho_j^\prime\ne \rho_i$, mit Eigenvektoren $ \Upsilon_j^\prime$ und $ \Upsilon_i$, deren Skalarprodukt nicht verschwindet.

Also folgt der Hilfssatz

\begin{equation*}\begin{aligned}\tr \rho (\ln \rho^\prime -\ln \rho) < \sum_{ij...
...^\prime\rangle &= \tr \rho^\prime - \tr \rho = 0 . \end{aligned}\end{equation*}

Wenn $ \hat{\rho}\ne\tilde{\rho}$ und $ 0< \lambda < 1$ ist, so ist auch $ \hat{\rho}\ne \rho(\lambda)\ne \tilde{\rho}$. Wir verwenden den Hilfssatz, wobei wir für $ \rho^\prime$ die Dichtematrix $ \rho(\lambda)$ einsetzen und für $ \rho$ die Matrizen $ \hat{\rho}$ und $ \tilde{\rho}$. Dabei nehmen wir die Spur über den Unterraum, der orthogonal zum Nullraum von $ \rho(\lambda)$ ist.

Aus dem Hilfssatz folgen dann die Ungleichungen

\begin{equation*}\begin{aligned}\tr \hat{\rho} \ln (\lambda \hat{\rho} + (1-\lam...
...ilde{\rho})&<& \tr \tilde{\rho} \ln \tilde{\rho} . \end{aligned}\end{equation*}

Multiplizieren wir die erste Ungleichung mit $ \lambda, 0 < \lambda < 1$, und die zweite mit $ (1-\lambda)$ und addieren wir, so erhalten wir

$\displaystyle \tr (\lambda\hat{\rho} + (1-\lambda)\tilde{\rho})\ln (\lambda\hat...
...  \tr \hat{\rho}\ln \hat{\rho} + (1-\lambda) \tr \tilde{\rho}\ln \tilde{\rho}$ (6.17)

Drehen wir schließlich das Vorzeichen um, so erhalten wir für die Entropie von Mischungen von $ \hat{\rho}$ mit $ \tilde{\rho}$, $ \hat{\rho}\ne\tilde{\rho}$, für $ 0< \lambda < 1$

$\displaystyle S(\rho(\lambda)) > \lambda S(\hat{\rho}) +(1-\lambda)S(\tilde{\rho}) .$ (6.18)

Die Entropie eines Gemisches ist größer als die anteilige Summe der Entropien der Bestandteile. Entropie nimmt durch Mischen zu.

Das Gemisch $ \rho(\lambda)$ läßt sich aus Gemischen $ \rho(\lambda_1)$ und $ \rho(\lambda_2)$ mit benachbarten Mischungsparametern $ 0\le\lambda_1<\lambda<\lambda_2\le1$ mischen.

$\displaystyle \rho(\lambda)= \frac{\lambda_2-\lambda}{\lambda_2-\lambda_1}\rho(\lambda_1)+ \frac{\lambda-\lambda_1}{\lambda_2-\lambda_1}\rho(\lambda_2)$ (6.19)

Demnach ist die Entropie $ S(\rho(\lambda))$ eine konkave Funktion des Mischungsparameters $ \lambda$.

$\displaystyle S(\rho(\lambda)) > \frac{\lambda_2-\lambda_{\phantom{1}}}{\lambda...
...+ \frac{\lambda_{\phantom{2}}-\lambda_1}{\lambda_2-\lambda_1}S(\rho(\lambda_2))$ (6.20)

Abbildung 6.1: Entropie als konkave Funktion des Mischungsparameters
\begin{figure}<tex2html_file> ...

Zufällige Störung der Zeitentwicklung ist ein Mischprozeß und erhöht die Entropie. Stellen wir uns in Abbildung (1.1) vor, daß die Teilchen im Strahl durch ein unvollkommenes Vakuum fliegen, und berücksichtigen wir nur die beiden Alternativen, daß mit Wahrscheinlichkeit $ \lambda$ kein Atom des Restgases den Strahl stört und daß mit Wahrscheinlichkeit $ (1-\lambda)$ ein Atom den Strahl stört. Bezeichnen wir die Gemische, die sich ohne und mit Störung entwickeln als $ \hat{\rho}$ und $ \tilde{\rho}$, so liegt am Eingang des Meßapparates das Gemisch $ \lambda\hat{\rho}+ (1-\lambda)\tilde{\rho}$ vor, falls die Störung durch das Restatom zufällig, also unabhängig von der Präparation in der Quelle, erfolgt.

Mißt man das Gemisch $ \rho$ mit einem Apparat $ B$, dessen Meßwerte nicht entartet sind und der nicht mit $ \rho$ vertauscht, so ist die Entropie der Wahrscheinlichkeitsverteilung dieser Werte größer als die Entropie des Gemisches selbst. Denn bezeichne $ \Lambda_i$ die Eigenzustände von $ B$, so tritt der $ i$-te Meßwert mit Wahrscheinlichkeit $ p_i$ auf,

$\displaystyle p_i = \langle \Lambda_i \vert\rho \Lambda_i\rangle = \sum_n \rho_n P_{in} ,\quad P_{in}=\vert\langle \Lambda_i \vert\Upsilon_n\rangle \vert^2 .$ (6.21)

Das ist die Wahrscheinlichkeit $ P_{in}$, daß der $ i$-te Meßwert auftritt, falls $ \Upsilon_n$ vermessen wird, mal der Wahrscheinlichkeit $ \rho_n$, daß $ \Upsilon_n$ im Gemisch $ \rho=\sum_n\rho_n \vert\Upsilon_n\rangle \langle \Upsilon_n\vert $ vorliegt.

Die dabei auftretenden Koeffizienten $ P_{in}$ sind Matrixelemente einer doppelt stochastischen Matrix $ P$, deren Zeilen und deren Spalten Wahrscheinlichkeitsverteilungen sind, das heißt, ihre Matrixelemente sind nicht negativ und sind für jedes $ n$ eine Wahrscheinlichkeitsverteilung über den Werten von $ i$ und für jedes $ i$ eine Wahrscheinlichkeitsverteilung über den Werten von $ n$,

$\displaystyle \sum_i P_{in}=1 ,\quad \sum_n P_{in}=1  .$ (6.22)

Die Entropie der Wahrscheinlichkeitsverteilung der nichtentarteten Meßwerte von $ B$, die sich bei Vermessen des Gemisches $ \rho$ ergibt, ist $ S(B,\rho)=-\sum_i p_i \ln p_i$. Um zu zeigen, daß sie größer ist als die Entropie, wenn wir dasselbe Gemisch mit einem Apparat vermessen, dessen nichtentartete Eigenzustände die Eigenzustände von $ \rho$ sind, $ S(A,\rho)=-\sum_n \rho_n \ln \rho_n$, untersuchen wir die Differenz, verwenden $ p_i=\sum_n \rho_n P_{in}$,


schieben im zweiten Term $ \sum_i P_{in}=1$ ein,


$\displaystyle S(B,\rho)-S(A,\rho)$ $\displaystyle =-\sum_i p_i \ln p_i + \sum_n \rho_n \ln \rho_n= \sum_n \rho_n (-(\sum_i P_{in}\ln p_i) + \ln \rho_n)\nonumber$ $\displaystyle =\sum_{in} \rho_n P_{in}(-\ln p_i + \ln \rho_n)=\sum_{in} \rho_n ...
... schätzen den Logarithmus nach unten durch $\ln x \ge 1 - 1/x$ ab, } \nonumber$ $\displaystyle \ge \sum_{in}P_{in}(\rho_n - p_i)=\sum_n(\rho_n\sum_i P_{in})-\sum_i(p_i\sum_n P_{in})$    
  $\displaystyle = \sum_n\rho_n - \sum_i p_i = 1 -1 = 0 .$ (6.23)

Also ist, wie behauptet, die Entropie des Gemisches eine untere Schranke für die Entropie der Wahrscheinlichkeitsverteilung jeder nichtentarteten Messung, die am Gemisch vorgenommen wird.




Nächste Seite: Gleichgewicht Aufwärts: Grundlagen der Thermodynamik Vorherige Seite: Grundlagen der Thermodynamik   Inhalt   Index
FAQ Homepage