Nächste Seite: Das Schursche Lemma Aufwärts: Anhang Vorherige Seite: Algebraisches Poincaré-Lemma   Inhalt   Index


Ableitung der Determinante

Jede lineare Transformation $ L$ bildet Basisvektoren $ e_j$, $ j=1,2,\dots, n$, auf Vektoren

$\displaystyle L: e_j \mapsto L(e_j) = e_i L^i{}_j$ (16.1)

ab. Dabei bezeichnet $ L^i{}_j$ die Matrixelemente der zu $ L$ und zur Basis $ e_j$ gehörigen Matrix. Sie enthält in der Spalte $ j$ die Komponenten des transformierten $ j$-ten Basisvektors. Die Vektoren $ L (e_j)$ spannen ein Volumen auf, das proportional ist zu dem nichtverschwindenden Volumen, das die Basisvektoren $ e_j$ aufspannen. Der Proportionalitätsfaktor definiert die Determinante von $ L$

vol$\displaystyle (L (e_1),L (e_2),\dots,L (e_n))=\det (L)\,$vol$\displaystyle (e_1,e_2,\dots,e_n)\ .$ (16.2)

Da Volumen linear in jedem seiner Argumente ist (A.22), können wir die Koeffizienten $ L^i{}_j$ herausziehen und erhalten

vol$\displaystyle (L (e_1),L (e_2),\dots,L (e_n))= L^{i_1}{}_1L^{i_2}{}_2\dots L^{i_n}{}_n$vol$\displaystyle (e_{i_1},e_{i_2},\dots,e_{i_n})\ .$ (16.3)

Das Volumen, das von einem Vektor mit sich selbst und weiteren Vektoren aufgespannt wird, verschwindet

vol$\displaystyle (e_1,\dots,a,\dots,a,\dots,e_n)=0\ .$ (16.4)

Daraus folgt in Kombination mit der Linearität, daß das Volumen total antisymmetrisch unter Vertauschung seiner Argumente ist (A.24), und daher

vol$\displaystyle (e_{i_1},e_{i_2},\dots,e_{i_n})= \varepsilon_{i_1i_2\dots i_n}$vol$\displaystyle (e_1,e_2,\dots,e_n)\ ,$ (16.5)

wobei $ \varepsilon_{i_1i_2\dots i_n}$ total antisymmetrisch ist und $ \varepsilon_{1 2 \dots n}=1$ ist (A.32). Die Determinante von $ L$ ist daher das folgende Polynom der Matrixelemente (B.60)

$\displaystyle \det L = \varepsilon_{i_1i_2\dots i_n}L^{i_1}{}_1L^{i_2}{}_2\dots L^{i_n}{}_n\ .$ (16.6)

Allgemeiner gilt $ \varepsilon_{i_1i_2\dots i_n}L^{i_1}{}_{j_1}L^{i_2}{}_{j_2}\dots L^{i_n}{}_{j_n}
= \varepsilon_{j_1j_2\dots j_n}\det L$, denn beide Seiten sind total antisymmetrisch. Für hintereinander ausgeführte lineare Transformationen $ A$ und $ B$ ergibt sich hieraus unmittelbar der Determinantenproduktsatz, $ \det(A B)= \det A\cdot \det B$ sowie $ \det L = \det L^T$, denn $ \varepsilon_{j_1j_2\dots j_n}L^{i_1}{}_{j_1}L^{i_2}{}_{j_2}\dots L^{i_n}{}_{j_n}
=\det L^T \varepsilon_{i_1i_2\dots i_n}$.

Durch Differenzieren folgt aus (H.6)

$\displaystyle \frac{\partial \det L}{\partial L^{i}{}_j}= \varepsilon_{i_1 \dot...
..._n}L^{i_1}{}_1 \dots L^{i_{j-1}}{}_{j-1}L^{i_{j+1}}{}_{j+1}\dots L^{i_n}{}_n\ .$ (16.7)

Was dieses Ergebnis besagt, finden wir heraus, indem wir mit $ L^{i}{}_l$ multiplizieren und über $ i$ summieren. Dann erhalten wir wieder die Determinante, wenn $ l=j$ ist. Im Fall $ l\ne j$ erhalten wir Null, weil in der Summe mit dem $ \varepsilon$-Tensor schon $ L^{i_l}{}_l$ steht und $ \varepsilon$ total antisymmetrisch ist. Also ist die Ableitung der Determinante einer Matrix ein Vielfaches der inversen Matrix

$\displaystyle \frac{\partial \det L}{\partial L^i{}_j}=(\det L) \;L^{-1}{}^j{}_i\ .$ (16.8)

Die rechte Seite $ (\det L)\, L^{-1\,j}{}_i$, der Minor von $ L$, ist polynomial in den Matrixelementen von $ L$ und existiert auch noch, wenn $ L$ nicht invertierbar ist.

Falls $ L$ invertierbar ist, ergibt sich die Ableitung der Determinante mit der Relation $ \det({\mathbf 1}+A)=1+\tr A + O(A^2)$ für kleine $ A$ (H.6) auch einfach aus dem Produktsatz

\begin{equation*}\begin{aligned}\delta \det L &= \det(L + \delta L)-\det L = \de...
...artial \det L}{\partial L^i{}_j}\,\delta L^i{}_j\ . \end{aligned}\end{equation*}

Die Ableitung der Determinante einer einparametrigen Schar von Matrizen $ L_\alpha$ ist nach Kettenregel

$\displaystyle \frac{\partial}{\partial \alpha} \det L_\alpha = \det L_\alpha\; L_\alpha^{-1}{}^j{}_i\; \frac{\partial}{\partial \alpha} L^i{}_j\ .$ (16.10)

Die Matrixelemente $ (L^{-1})^i{}_j$ der inversen Matrix sind rationale Funktionen der Matrixelemente $ L^m{}_n$ der Matrix $ L$. Ihre Ableitung

$\displaystyle \frac{\partial (L^{-1})^i{}_j}{\partial L^r{}_s} = - (L^{-1})^i{}_r(L^{-1})^s{}_j$ (16.11)

erhält man, wenn man in der definierenden Relation $ L^{-1}L = 1$ die Matrizen variiert $ (\delta L^{-1})L + L^{-1}\delta L = 0$ und nach $ \delta L^{-1}$ auflöst

$\displaystyle \delta L^{-1}= - L^{-1}(\delta L) L^{-1}\ .$ (16.12)

Etwas umständlicher bestätigt man diese Relation durch Differenzieren der Relation $ (L^{-1})^i{}_jL^j{}_k= \delta^i{}_k$ mit $ {\partial L^i{}_j}/{\partial L^r{}_s}=\delta^i{}_r\delta^s{}_j$.

Als metrisches Volumenelement bezeichnet man $ \sqrt{\mathrm{g}}d^n x $, wobei

$\displaystyle \mathrm{g}=\vert\det g_{..}\vert\ ,\quad(g_{..})_{kl}= g_{kl}$ (16.13)

der Betrag der Determinante derjenigen Matrix $ g_{..}$ ist, deren Elemente die Komponenten der Metrik sind. Die Ableitung von $ \sqrt{\mathrm{g}}$ nach den Koordinaten $ x^k$ ist nach Kettenregel

$\displaystyle \partial_k\sqrt{\mathrm{g}}=\frac{1}{2\sqrt{\mathrm{g}}}\, \mathrm{g} g^{rs}\partial_k g_{rs} = \sqrt{\mathrm{g}}\, \Gamma_{kl}{}^l\ ,$ (16.14)

wobei $ \Gamma_{kl}{}^m$ das Christoffelsymbol (C.106) ist, das im metrikverträglichen, torsionsfreien Paralleltransport auftritt. Daher gehört zu jedem kovariant erhaltenen Vektorstrom $ j^m$, $ D_m j^m = 0$, die Stromdichte $ \sqrt{\mathrm{g}}\,j^m$ , die eine Kontinuitätsgleichung erfüllt,

$\displaystyle \sqrt{\mathrm{g}}\,D_m j^m = \sqrt{\mathrm{g}}\bigl ( \partial_m ...
...ma_{mk}{}^m j^k \bigr ) = \partial_m \bigl ( \sqrt{\mathrm{g}}\, j^m \bigr )\ .$ (16.15)




Nächste Seite: Das Schursche Lemma Aufwärts: Anhang Vorherige Seite: Algebraisches Poincaré-Lemma   Inhalt   Index
FAQ Homepage