Determinante - Determinant

In der Mathematik ist die Determinante ein Skalarwert , der eine Funktion der Einträge einer quadratischen Matrix ist . Es ermöglicht die Charakterisierung einiger Eigenschaften der Matrix und der durch die Matrix repräsentierten linearen Abbildung . Insbesondere ist die Determinante genau dann ungleich Null, wenn die Matrix invertierbar ist und die durch die Matrix dargestellte lineare Abbildung ein Isomorphismus ist . Die Determinante eines Produkts von Matrizen ist das Produkt ihrer Determinanten (die vorhergehende Eigenschaft ist eine Folge davon). Die Determinante einer Matrix A wird als det( A ) , det A oder | . bezeichnet A | .

Im Fall einer 2 × 2- Matrix kann die Determinante definiert werden als

In ähnlicher Weise ist für eine 3 × 3-Matrix A ihre Determinante

Jede Determinante einer 2 × 2- Matrix in dieser Gleichung wird Minor der Matrix A genannt . Dieses Verfahren kann erweitert werden, um eine rekursive Definition für die Determinante einer n × n- Matrix zu geben, die als Laplace-Entwicklung bekannt ist .

Determinanten kommen in der gesamten Mathematik vor. Beispielsweise wird häufig eine Matrix verwendet, um die Koeffizienten in einem System linearer Gleichungen darzustellen , und Determinanten können verwendet werden, um diese Gleichungen zu lösen ( Cramer-Regel ), obwohl andere Lösungsmethoden rechnerisch viel effizienter sind. Determinanten werden verwendet, um das charakteristische Polynom einer Matrix zu definieren, deren Wurzeln die Eigenwerte sind . In der Geometrie wird das vorzeichenbehaftete n- dimensionale Volumen eines n- dimensionalen Parallelepipeds durch eine Determinante ausgedrückt. Dies wird in der Analysis mit äußeren Differentialformen und der Jacobi-Determinante verwendet , insbesondere für Änderungen von Variablen in Mehrfachintegralen .

2 × 2 Matrizen

Die Determinante einer 2 × 2- Matrix wird entweder mit "det" oder durch vertikale Balken um die Matrix bezeichnet und ist definiert als

Zum Beispiel,

Erste Eigenschaften

Die Determinante hat mehrere Schlüsseleigenschaften, die durch direkte Auswertung der Definition für -Matrizen bewiesen werden können und die auch für Determinanten größerer Matrizen gelten. Sie sind wie folgt: Erstens ist die Determinante der Identitätsmatrix 1. Zweitens ist die Determinante Null, wenn zwei Zeilen gleich sind:

Dies gilt ähnlich, wenn die beiden Spalten gleich sind. Außerdem,

Wenn schließlich eine Spalte mit einer Zahl multipliziert wird (dh alle Einträge in dieser Spalte werden mit dieser Zahl multipliziert), wird die Determinante ebenfalls mit dieser Zahl multipliziert:

Geometrische Bedeutung

Die Fläche des Parallelogramms ist der Absolutwert der Determinante der Matrix, die durch die Vektoren gebildet wird, die die Seiten des Parallelogramms darstellen.

Wenn die Matrixeinträge reelle Zahlen sind, kann die Matrix A verwendet werden, um zwei lineare Abbildungen darzustellen : eine, die die Standardbasisvektoren auf die Zeilen von A abbildet, und eine, die sie auf die Spalten von A abbildet . In jedem Fall bilden die Bilder der Basisvektoren ein Parallelogramm , das das Bild des Einheitsquadrats unter der Abbildung darstellt. Das Parallelogramm durch die Zeilen der obigen Matrix definiert ist derjenige mit Eckpunkten bei (0, 0) , ( a , b ) , ( a + c , b + d ) , und ( c , d ) , wie in dem begleitenden gezeigt Diagramm.

Der Absolutwert von adbc ist die Fläche des Parallelogramms und stellt somit den Skalierungsfaktor dar, mit dem Flächen durch A transformiert werden . (Das von den Spalten von A gebildete Parallelogramm ist im Allgemeinen ein anderes Parallelogramm, aber da die Determinante in Bezug auf Zeilen und Spalten symmetrisch ist, ist die Fläche gleich.)

Der Absolutwert der Determinante wird zusammen mit dem Vorzeichen zur orientierten Fläche des Parallelogramms. Die orientierte Fläche ist die gleiche wie die normale Fläche , außer dass sie negativ ist, wenn sich der Winkel vom ersten zum zweiten Vektor, der das Parallelogramm definiert, im Uhrzeigersinn dreht (was der Richtung entgegengesetzt ist, die man für die Identitätsmatrix erhalten würde ).

Um zu zeigen, dass adbc die Fläche mit Vorzeichen ist, kann man sich eine Matrix vorstellen, die zwei Vektoren u ≡ ( a , b ) und v ≡ ( c , d ) enthält , die die Seiten des Parallelogramms darstellen. Der vorzeichenbehaftete Bereich kann als | . ausgedrückt werden du | | v | sin  θ für den Winkel θ zwischen den Vektoren, der einfach Basis mal Höhe ist, die Länge eines Vektors mal der senkrechten Komponente des anderen. Aufgrund des Sinus ist dies bereits der vorzeichenbehaftete Bereich, kann jedoch bequemer mit dem Kosinus des komplementären Winkels zu einem senkrechten Vektor ausgedrückt werden , zB u = (− b , a ) , so dass | u | | v | cos  θ′ , die durch das Muster des Skalarprodukts gleich adbc bestimmt werden kann :

Das Volumen dieses Parallelepipeds ist der Absolutwert der Determinante der Matrix, die durch die aus den Vektoren r1, r2 und r3 gebildeten Spalten gebildet wird.

Somit gibt die Determinante den Skalierungsfaktor und die Orientierung an, die durch die durch A dargestellte Abbildung induziert wird . Wenn die Determinante gleich eins ist, ist die lineare Abbildung durch die Matrix definiert equi-Areal und orientierungserhaltend.

Das als Bivektor bekannte Objekt bezieht sich auf diese Ideen. In 2D, kann es als interpretiert werden orientierten Ebene Segment durch die Vorstellung zwei Vektoren mit jeweils Ursprung gebildet (0, 0) , und die Koordinaten ( a , b ) und ( c , d ) . Die Bivektorgröße (bezeichnet mit ( a , b ) ( c , d ) ) ist die vorzeichenbehaftete Fläche , die auch die Determinante adbc ist .

Wenn eine reelle n × n- Matrix A durch ihre Spaltenvektoren geschrieben wird , dann

Dies bedeutet, dass die Einheit n -Würfel auf das n -dimensionale Parallelotop abgebildet wird , das durch die Vektoren der Region

Die Determinante gibt das vorzeichenbehaftete n- dimensionale Volumen dieses Parallelotops an und beschreibt damit allgemeiner den n- dimensionalen Volumenskalierungsfaktor der von A erzeugten linearen Transformation . (Das Vorzeichen zeigt an, ob die Transformation die Orientierung beibehält oder umkehrt .) Insbesondere wenn die Determinante null ist, dann hat dieses Parallelotop das Volumen null und ist nicht vollständig n- dimensional, was anzeigt, dass die Dimension des Bildes von A kleiner als n . ist . Dies bedeutet, dass A eine lineare Transformation erzeugt, die weder auf noch eins zu eins ist und daher nicht invertierbar ist.

Definition

In der Folge ist A eine quadratische Matrix mit n Zeilen und n Spalten, so dass sie geschrieben werden kann als

Die Einträge usw. sind für viele Zwecke reelle oder komplexe Zahlen. Wie unten diskutiert, ist die Determinante auch für Matrizen definiert, deren Einträge Elemente in abstrakteren algebraischen Strukturen sind, die als kommutative Ringe bekannt sind .

Die Determinante von A wird mit det( A ) bezeichnet oder kann direkt über die Matrixeinträge angegeben werden, indem umschließende Striche anstelle von Klammern geschrieben werden:

Es gibt verschiedene äquivalente Möglichkeiten, die Determinante einer quadratischen Matrix A zu definieren , dh eine mit der gleichen Anzahl von Zeilen und Spalten: Die Determinante kann über die Leibniz-Formel definiert werden , eine explizite Formel, die Summen von Produkten bestimmter Einträge der Matrix enthält. Die Determinante kann auch als eindeutige Funktion charakterisiert werden, abhängig von den Einträgen der Matrix, die bestimmte Eigenschaften erfüllen. Dieser Ansatz kann auch verwendet werden, um Determinanten zu berechnen, indem die fraglichen Matrizen vereinfacht werden.

Leibniz-Formel

Die Leibniz-Formel für die Determinante einer 3 × 3- Matrix lautet:

Die Regel von Sarrus ist eine Gedächtnisstütze für diese Formel: die Summe der Produkte von drei diagonalen Nordwest- bis Südostlinien von Matrixelementen, minus der Summe der Produkte von drei diagonalen Südwest- bis Nordostlinien von Elementen , wenn die Kopien der ersten beiden Spalten der Matrix wie in der Abbildung daneben geschrieben werden:

Schema sarrus-regel.png

Dieses Schema zur Berechnung der Determinante einer 3 × 3- Matrix lässt sich nicht in höhere Dimensionen übertragen.

n × n Matrizen

Die Leibniz-Formel für die Determinante einer -Matrix ist ein komplizierterer , aber verwandter Ausdruck. Es ist ein Ausdruck, der den Begriff der Permutationen und ihrer Signatur beinhaltet . Eine Permutation der Menge ist eine Funktion , die diese Menge von ganzen Zahlen neu anordnet. Der Wert an der -ten Position nach der Neuordnung wird mit bezeichnet . Die Menge all dieser Permutationen, die sogenannte symmetrische Gruppe , wird mit bezeichnet . Die Signatur von ist immer dann definiert, wenn die durch gegebene Neuordnung durch aufeinanderfolgendes Vertauschen zweier Einträge eine gerade Anzahl von Malen erreicht werden kann, und wann immer sie durch eine ungerade Anzahl solcher Vertauschungen erreicht werden kann. Gegeben die Matrix und eine Permutation , das Produkt

wird auch kürzer in Pi-Notation geschrieben als

.

Unter Verwendung dieser Begriffe lautet die Definition der Determinante mit der Leibniz-Formel dann

eine Summe, die alle Permutationen umfasst, wobei jeder Summand ein Produkt von Einträgen der Matrix ist, multipliziert mit einem von der Permutation abhängigen Vorzeichen.

Die folgende Tabelle wickelt diese Begriffe im Fall ab . In der ersten Spalte wird eine Permutation nach ihren Werten aufgelistet. In der zweiten Zeile beispielsweise erfüllt die Permutation . Sie kann aus der Standard-Order (1, 2, 3) durch einmaligen Austausch (Vertauschen des zweiten und dritten Eintrags) bezogen werden, so dass seine Signatur .

Permutationen von und ihr Beitrag zur Determinante
Permutation
1, 2, 3
1, 3, 2
3, 1, 2
3, 2, 1
2, 3, 1
2, 1, 3

Die Summe der sechs Terme in der dritten Spalte lautet dann

Dies gibt die obige Formel für -Matrizen zurück. Für eine allgemeine -Matrix beinhaltet die Leibniz-Formel ( n faktorielle ) Summanden, von denen jeder ein Produkt von n Einträgen der Matrix ist.

Die Leibniz-Formel kann auch durch eine Summation ausgedrückt werden, bei der nicht nur Permutationen, sondern alle Indizesfolgen im Bereich vorkommen. Dazu verwendet man das Levi-Civita-Symbol anstelle des Zeichens einer Permutation

Dies gibt die obige Formel zurück, da das Levi-Civita-Symbol Null ist, wenn die Indizes keine Permutation bilden.

Eigenschaften der Determinante

Charakterisierung der Determinante

Die Determinante kann durch die folgenden drei Schlüsseleigenschaften charakterisiert werden. Um dies zu sagen , ist es bequem, eine -Matrix A als aus ihren Spalten zusammengesetzt zu betrachten, die so bezeichnet werden als

wobei der Spaltenvektor (für jedes i ) aus den Einträgen der Matrix in der i- ten Spalte besteht.

  1. , wobei eine Identitätsmatrix ist .
  2. Die Determinante ist multilinear : Wird die j- te Spalte einer Matrix als Linearkombination zweier Spaltenvektoren v und w und einer Zahl r geschrieben , dann lässt sich die Determinante von A als ähnliche Linearkombination ausdrücken:
  3. Die Determinante ist alternierend : Immer wenn zwei Spalten einer Matrix identisch sind, ist ihre Determinante 0:

Wenn die Determinante wie oben mit der Leibniz-Formel definiert ist, können diese drei Eigenschaften durch direkte Betrachtung dieser Formel nachgewiesen werden. Einige Autoren nähern sich der Determinante auch direkt anhand dieser drei Eigenschaften: Es kann gezeigt werden, dass es genau eine Funktion gibt, die jeder -Matrix A eine Zahl zuordnet , die diese drei Eigenschaften erfüllt. Dies zeigt auch, dass dieser abstraktere Ansatz zur Determinante dieselbe Definition liefert wie der, der die Leibniz-Formel verwendet.

Um dies zu sehen, genügt es, die Determinante durch Multilinearität in den Spalten zu einer (riesigen) Linearkombination von Determinanten von Matrizen zu erweitern, in denen jede Spalte ein Standardbasisvektor ist. Diese Determinanten sind entweder 0 (nach Eigenschaft 9) oder sonst ±1 (nach Eigenschaften 1 und 12 unten), so dass die Linearkombination den obigen Ausdruck in Bezug auf das Levi-Civita-Symbol ergibt. Obwohl sie weniger technisch erscheint, kann diese Charakterisierung die Leibniz-Formel bei der Definition der Determinante nicht vollständig ersetzen, da ohne sie die Existenz einer geeigneten Funktion nicht klar ist.

Sofortige Folgen

Diese Regeln haben mehrere weitere Konsequenzen:

(für eine Matrix ).
  • Das Vertauschen eines beliebigen Spaltenpaars einer Matrix multipliziert ihre Determinante mit −1. Dies folgt daraus, dass die Determinante multilinear und alternierend ist (Eigenschaften 2 und 3 oben):
Diese Formel kann iterativ angewendet werden, wenn mehrere Spalten vertauscht werden. Zum Beispiel
Noch allgemeiner multipliziert jede Permutation der Spalten die Determinante mit dem Vorzeichen der Permutation.
  • Wenn eine Spalte als Linearkombination der anderen Spalten ausgedrückt werden kann (dh die Spalten der Matrix bilden eine linear abhängige Menge), ist die Determinante 0. Als Sonderfall beinhaltet dies: wenn eine Spalte so ist, dass alle ihre Einträge Null sind, dann ist die Determinante dieser Matrix 0.
  • Das Hinzufügen eines skalaren Vielfachen einer Spalte zu einer anderen Spalte ändert den Wert der Determinante nicht. Dies ist eine Folge der Multilinearität und der Alternative: Durch die Multilinearität ändert sich die Determinante um ein Vielfaches der Determinante einer Matrix mit zwei gleichen Spalten, die 0 ist, da die Determinante alternierend ist.
  • Wenn es sich um eine Dreiecksmatrix handelt , dh , wann immer oder alternativ, wann immer , dann ist ihre Determinante gleich dem Produkt der diagonalen Einträge:
Tatsächlich kann eine solche Matrix durch geeignetes Addieren von Vielfachen der Spalten mit weniger von Null verschiedenen Einträgen zu denen mit mehr Einträgen zu einer Diagonalmatrix reduziert werden (ohne die Determinante zu ändern). Für eine solche Matrix reduziert sich die Verwendung der Linearität in jeder Spalte auf die Identitätsmatrix, in welchem ​​Fall die angegebene Formel durch die allererste charakterisierende Eigenschaft von Determinanten gilt. Alternativ kann diese Formel auch aus der Leibniz-Formel abgeleitet werden, da die einzige Permutation, die einen von Null verschiedenen Beitrag liefert, die Identitätspermutation ist.

Beispiel

Diese charakterisierenden Eigenschaften und ihre oben aufgeführten Konsequenzen sind beide theoretisch signifikant, können aber auch zur Berechnung von Determinanten für konkrete Matrizen verwendet werden. Tatsächlich kann die Gaußsche Elimination angewendet werden, um jede Matrix in eine obere Dreiecksform zu bringen, und die Schritte in diesem Algorithmus beeinflussen die Determinante auf kontrollierte Weise. Das folgende konkrete Beispiel veranschaulicht die Berechnung der Determinante der Matrix mit dieser Methode:

Untertiteltext
Matrix

Erhalten von

füge die zweite Spalte zur ersten hinzu

füge dreimal die dritte Spalte zur zweiten hinzu

vertausche die ersten beiden Spalten

füge mal die zweite Spalte zur ersten hinzu

Bestimmend

Die Kombination dieser Gleichheiten ergibt

Transponieren

Die Determinante der Transponierten von ist gleich der Determinante von A :

.

Dies lässt sich mit der Leibniz-Formel nachweisen. Dies impliziert, dass in allen oben genannten Eigenschaften das Wort "Spalte" durchgängig durch "Zeile" ersetzt werden kann. Betrachtet man beispielsweise eine n × n- Matrix als aus n Zeilen zusammengesetzt, ist die Determinante eine n- lineare Funktion.

Multiplikativität und Matrixgruppen

Die Determinante ist also eine multiplikative Abbildung , dh für quadratische Matrizen und gleicher Größe ist die Determinante eines Matrixprodukts gleich dem Produkt ihrer Determinanten:

Diese Schlüsseltatsache kann bewiesen werden, indem man beobachtet, dass für eine feste Matrix beide Seiten der Gleichung in Abhängigkeit von den Spalten von alternierend und multilinear sind . Darüber hinaus nehmen beide den Wert an, wenn die Identitätsmatrix ist. Die oben erwähnte einzigartige Charakterisierung alternierender multilinearer Abbildungen zeigt daher diese Behauptung.

Eine Matrix ist genau dann invertierbar , wenn ihre Determinante ungleich Null ist. Dies folgt aus der Multiplikativität und der Formel für die Inverse mit der unten erwähnten Adjugatmatrix. In diesem Fall ist die Determinante der inversen Matrix gegeben durch

.

Insbesondere Produkte und Inverse von Matrizen mit einer Determinante ungleich Null (bzw. Determinante Eins) haben diese Eigenschaft noch. Somit bildet die Menge solcher Matrizen (mit fester Größe ) eine Gruppe, die als allgemeine lineare Gruppe bekannt ist (bzw. eine Untergruppe , die als spezielle lineare Gruppe bezeichnet wird . Allgemeiner bezeichnet das Wort "speziell" die Untergruppe einer anderen Matrixgruppe von Matrizen von Determinante 1. Beispiele sind die spezielle orthogonale Gruppe (die, wenn n 2 oder 3 ist, aus allen Rotationsmatrizen besteht ) und die spezielle unitäre Gruppe .

Die Cauchy-Binet-Formel ist eine Verallgemeinerung dieser Produktformel für rechteckige Matrizen. Diese Formel kann auch als multiplikative Formel für zusammengesetzte Matrizen umgeformt werden, deren Einträge die Determinanten aller quadratischen Teilmatrizen einer gegebenen Matrix sind.

Laplace-Erweiterung

Die Laplace-Expansion drückt die Determinante einer Matrix in Bezug auf Determinanten kleinerer Matrizen aus, die als ihre Nebenwerte bekannt sind . Der Minor ist als Determinante der -Matrix definiert, die sich aus dem Entfernen der -ten Zeile und der -ten Spalte ergibt . Der Ausdruck wird als Cofaktor bezeichnet . Für jeden hat man die Gleichheit

was als Laplace-Entwicklung entlang der i- ten Reihe bezeichnet wird . Beispielsweise ergibt die Laplace-Entwicklung entlang der ersten Reihe ( ) die folgende Formel:

Das Abwickeln der Determinanten dieser -Matrizen gibt die oben erwähnte Leibniz-Formel zurück. In ähnlicher Weise ist die Laplace-Entwicklung entlang der -ten Spalte die Gleichheit

Die Laplace-Expansion kann iterativ zum Berechnen von Determinanten verwendet werden, aber dieser Ansatz ist für große Matrizen ineffizient. Es ist jedoch nützlich, um die Determinanten einer hochsymmetrischen Matrix wie der Vandermonde-Matrix zu berechnen

Diese Determinante wurde zum Beispiel beim Beweis des Satzes von Baker in der Theorie der transzendenten Zahlen angewendet .

Adjugatmatrix

Die Adjugatmatrix ist die Transponierte der Matrix der Cofaktoren, d.h.

Für jede Matrix gilt

Somit kann die adjugierte Matrix verwendet werden, um die Inverse einer nicht singulären Matrix auszudrücken :

Blockmatrizen

Die Formel für die Determinante eines -Matrix oben fortsetzt, unter geeigneten weiteren Annahmen für eine halte Blockmatrix , das heißt, eine Matrix aus vier Submatrizen der Dimension , , und ist. Die einfachste Formel, die entweder mit der Leibniz-Formel oder einer Faktorisierung mit dem Schur-Komplement bewiesen werden kann , ist

Wenn ist umkehrbar (und ähnlich , wenn umkehrbar ist), hat man

Wenn eine -Matrix ist, vereinfacht sich dies zu .

Sind die Blöcke quadratische Matrizen gleicher Größe, gelten weitere Formeln. Wenn zum Beispiel und kommutiere (dh ), dann gilt

Diese Formel wurde auf Matrizen verallgemeinert, die aus mehr als Blöcken bestehen, wiederum unter geeigneten Kommutativitätsbedingungen zwischen den einzelnen Blöcken.

Für und gilt die folgende Formel (auch wenn und und B nicht kommutieren)

Determinantensatz von Sylvester

Der Determinantensatz von Sylvester besagt, dass für A eine m × n- Matrix und B eine n × m- Matrix (so dass A und B Dimensionen haben, die es erlauben, sie in beliebiger Reihenfolge zu multiplizieren, um eine quadratische Matrix zu bilden):

wobei I m und I n die m × m- bzw. n × n- Identitätsmatrizen sind.

Aus diesem allgemeinen Ergebnis folgen mehrere Konsequenzen.

  1. Für den Fall des Spaltenvektors c und des Zeilenvektors r mit jeweils m Komponenten ermöglicht die Formel eine schnelle Berechnung der Determinante einer Matrix, die sich von der Identitätsmatrix durch eine Matrix vom Rang 1 unterscheidet:
  2. Allgemeiner ausgedrückt gilt für jede invertierbare m × m- Matrix X ,
  3. Für einen Spalten- und Zeilenvektor wie oben:
  4. Bei quadratischen Matrizen und gleicher Größe haben die Matrizen und die gleichen charakteristischen Polynome (also die gleichen Eigenwerte).

Summe

Die Determinante der Summe zweier gleich großer quadratischer Matrizen lässt sich im Allgemeinen nicht durch die Determinanten von A und von B ausdrücken . Für positive semidefinite Matrizen , und von gleicher Größe, , denn mit dem Korollar

Eigenschaften der Determinante in Bezug auf andere Begriffe

Eigenwerte und charakteristisches Polynom

Die Determinante ist eng verwandt mit zwei anderen zentralen Konzepten der linearen Algebra, den Eigenwerten und dem charakteristischen Polynom einer Matrix. Sei eine -Matrix mit komplexen Einträgen mit Eigenwerten . (Hier versteht sich, dass ein Eigenwert mit algebraischer Multiplizität μ in dieser Liste μ- mal vorkommt .) Dann ist die Determinante von A das Produkt aller Eigenwerte,

Das Produkt aller von Null verschiedenen Eigenwerte wird als Pseudodeterminante bezeichnet .

Das charakteristische Polynom ist definiert als

Hier ist das Unbestimmte des Polynoms und die Identitätsmatrix von der gleichen Größe wie . Mit Hilfe dieses Polynoms können Determinanten verwendet werden, um die Eigenwerte der Matrix zu finden : es sind genau die Wurzeln dieses Polynoms, also die komplexen Zahlen mit

Eine hermitesche Matrix ist positiv definit, wenn alle ihre Eigenwerte positiv sind. Das Sylvester-Kriterium besagt , dass dies äquivalent zu den Determinanten der Teilmatrizen ist

positiv sein, für alle zwischen und .

Verfolgen

Die Spur tr( A ) ist per Definition die Summe der diagonalen Einträge von A und gleich der Summe der Eigenwerte. Somit gilt für komplexe Matrizen A ,

oder für reelle Matrizen A ,

Hier bezeichnet exp( A ) das Matrixexponential von A , denn jeder Eigenwert λ von A entspricht dem Eigenwert exp( λ ) von exp( A ). Insbesondere ist ein beliebiger Logarithmus von A gegeben , d. h. jede Matrix L, die

die Determinante von A ist gegeben durch

Zum Beispiel für n = 2 , n = 3 bzw. n = 4 ,

vgl. Cayley-Hamilton-Theorem . Solche Ausdrücke sind aus kombinatorischen Argumenten, Newtons Identitäten oder dem Faddeev-LeVerrier-Algorithmus ableitbar . Das heißt, für generisches n ist det A = (−1) n c 0 der vorzeichenbehaftete Konstantenterm des charakteristischen Polynoms , rekursiv bestimmt aus

Im allgemeinen Fall kann diese auch bezogen werden bei

wobei die Summe über die Menge aller ganzen Zahlen k l ≥ 0 genommen wird, die die Gleichung

Die Formel lässt sich durch das vollständige exponentielle Bell-Polynom von n Argumenten s l = −( l – 1) ausdrücken ! tr( A l ) as

Diese Formel kann auch verwendet werden, um die Determinante einer Matrix A I J mit mehrdimensionalen Indizes I = (i 1 , i 2 , ..., i r ) und J = (j 1 , j 2 , ..., j r ) . Das Produkt und die Spur solcher Matrizen sind auf natürliche Weise definiert als

Eine wichtige beliebige Identität der Dimension n kann aus der Mercator-Reihenentwicklung des Logarithmus erhalten werden, wenn die Entwicklung konvergiert. Wenn jeder Eigenwert von A betragsmäßig kleiner als 1 ist,

wobei I die Identitätsmatrix ist. Allgemeiner gesagt, wenn

als formale Potenzreihe in s entwickelt wird, dann sind alle Koeffizienten von s m für m > n null und das verbleibende Polynom ist det( I + sA ) .

Ober- und Untergrenze

Für eine positiv bestimmte Matrix A gibt der Spuroperator die folgenden engen unteren und oberen Schranken für die logarithmische Determinante an

mit Gleichheit genau dann, wenn A = I . Dieser Zusammenhang lässt sich über die Formel für die KL-Divergenz zwischen zwei multivariaten Normalverteilungen herleiten .

Ebenfalls,

Diese Ungleichungen können bewiesen werden, indem man die Matrix A in die Diagonalform bringt . Als solche repräsentieren sie die bekannte Tatsache, dass das harmonische Mittel kleiner ist als das geometrische Mittel , das kleiner ist als das arithmetische Mittel , das wiederum kleiner als der quadratische Mittelwert ist .

Derivat

Durch die Leibniz-Formel zeigt sich, dass die Determinante reeller (oder analog für komplexe) quadratischer Matrizen eine Polynomfunktion von bis ist . Insbesondere ist es überall differenzierbar . Seine Ableitung kann mit der Jacobi-Formel ausgedrückt werden :

wobei bezeichnet das Adjugat von . Insbesondere gilt, wenn invertierbar ist,

Ausgedrückt in den Einträgen von sind dies

Eine weitere äquivalente Formulierung ist

,

mit großer O-Notation . Der Spezialfall, in dem , die Identitätsmatrix, ergibt

Diese Identität wird verwendet, um Lie-Algebren zu beschreiben , die bestimmten Matrix- Lie-Gruppen zugeordnet sind . Zum Beispiel wird die spezielle lineare Gruppe durch die Gleichung definiert . Die obige Formel zeigt, dass ihre Lie-Algebra die spezielle lineare Lie-Algebra ist, die aus den Matrizen mit Nullspur besteht.

Schreiben Sie eine -Matrix als wobei Spaltenvektoren der Länge 3 sind, dann kann der Gradient über einem der drei Vektoren als Kreuzprodukt der anderen beiden geschrieben werden:

Geschichte

Historisch wurden Determinanten lange vor Matrizen verwendet: Eine Determinante wurde ursprünglich als Eigenschaft eines linearen Gleichungssystems definiert . Die Determinante "bestimmt", ob das System eine eindeutige Lösung hat (die genau dann auftritt, wenn die Determinante nicht Null ist). In diesem Sinne wurden Determinanten erstmals im chinesischen Mathematiklehrbuch The Nine Chapters on the Mathematical Art (九章算術, chinesische Gelehrte, um das 3. Jahrhundert v. Chr.) verwendet. In Europa wurden 1545 von Cardano Lösungen linearer Systeme zweier Gleichungen durch eine determinantenartige Einheit ausgedrückt .

Die eigentlichen Determinanten stammen aus der Arbeit von Seki Takakazu 1683 in Japan und parallel von Leibniz 1693. Cramer (1750) stellte ohne Beweis die Cramersche Regel fest. Sowohl Cramer als auch Bezout (1779) wurden durch die Frage nach ebenen Kurven durch eine gegebene Punktmenge zu Determinanten geführt .

Vandermonde (1771) erkannte erstmals Determinanten als unabhängige Funktionen. Laplace (1772) gab die allgemeine Methode zur Erweiterung einer Determinante in Bezug auf ihre komplementären Nebenfächer an : Vandermonde hatte bereits einen Sonderfall angegeben. Unmittelbar im Anschluss behandelte Lagrange (1773) Determinanten zweiter und dritter Ordnung und wandte sie auf Fragen der Eliminationstheorie an ; er bewies viele Sonderfälle allgemeiner Identitäten.

Gauß (1801) machte den nächsten Vorstoß. Wie Lagrange machte er in der Zahlentheorie viel Gebrauch von Determinanten . Er führte das Wort „Determinante“ ein (Laplace hatte „resultierend“ verwendet), allerdings nicht in der gegenwärtigen Bedeutung, sondern in der Anwendung auf die Diskriminante einer Quantität . Gauß gelangte auch zu dem Begriff der reziproken (inversen) Determinanten und kam dem Multiplikationssatz sehr nahe.

Der nächste wichtige Beitrag ist Binet (1811, 1812), der formal den Satz über das Produkt zweier Matrizen aus m Spalten und n Zeilen aufgestellt hat, der sich für den Spezialfall m = n auf den Multiplikationssatz reduziert. Am selben Tag (30. November 1812), an dem Binet seine Arbeit der Akademie vorlegte , präsentierte auch Cauchy eine zu diesem Thema. (Siehe Cauchy-Binet-Formel .) Darin verwendete er das Wort "Determinante" in seiner gegenwärtigen Bedeutung, fasste zusammen und vereinfachte das, was damals über dieses Thema bekannt war, verbesserte die Notation und gab dem Multiplikationssatz einen Beweis, der zufriedenstellender war als der von Binet. Mit ihm beginnt die Theorie in ihrer Allgemeinheit.

( Jacobi 1841 ) benutzte die funktionale Determinante, die Sylvester später Jacobi nannte . In seinen Memoiren in Crelle's Journal for 1841 behandelt er speziell dieses Thema sowie die Klasse der alternierenden Funktionen, die Sylvester Alternants genannt hat . Ungefähr zur Zeit von Jacobis letzten Memoiren begannen Sylvester (1839) und Cayley ihre Arbeit. Cayley 1841 führte die moderne Notation für die Determinante mit vertikalen Strichen ein.

Das Studium besonderer Formen von Determinanten war das natürliche Ergebnis der Vervollständigung der allgemeinen Theorie. Achsensymmetrische Determinanten wurden von Lebesgue , Hesse und Sylvester untersucht; persymmetrische Determinanten von Sylvester und Hankel ; Zirkulanten von Katalanisch , Spottiswoode , Glaisher und Scott; schiefe Determinanten und Pfaffians , in Verbindung mit der Theorie der orthogonalen Transformation , von Cayley; Fortsetzungen von Sylvester; Wronskians (so genannt von Muir ) von Christoffel und Frobenius ; zusammengesetzte Determinanten von Sylvester, Reiss und Picquet; Jakobiner und Hessen von Sylvester; und symmetrische Gauche-Determinanten von Trudi . Von den Lehrbüchern zu diesem Thema war Spottiswoode das erste. In Amerika veröffentlichten Hanus (1886), Weld (1893) und Muir/Metzler (1933) Abhandlungen.

Anwendungen

Cramers Regel

Determinanten können verwendet werden, um die Lösungen eines linearen Gleichungssystems zu beschreiben , das in Matrixform als geschrieben wird . Diese Gleichung hat genau dann eine eindeutige Lösung, wenn sie ungleich Null ist. In diesem Fall ist die Lösung durch die Cramersche Regel gegeben :

wobei die Matrix gebildet wird, indem die -te Spalte von durch den Spaltenvektor ersetzt wird . Dies folgt unmittelbar durch Spaltenentwicklung der Determinante, dh

wobei die Vektoren die Spalten von A sind . Die Regel wird auch durch die Identität impliziert

Die Cramer-Regel kann in der Zeit implementiert werden, was mit gängigeren Methoden zum Lösen von linearen Gleichungssystemen wie LU , QR oder Singulärwertzerlegung vergleichbar ist .

Lineare Unabhängigkeit

Determinanten können verwendet werden, um linear abhängige Vektoren zu charakterisieren : ist null genau dann, wenn die Spaltenvektoren (oder äquivalent die Zeilenvektoren) der Matrix linear abhängig sind. Zum Beispiel können zwei linear unabhängige Vektoren gegeben , einen dritten Vektor liegt in der Ebene aufgespannt durch die ehemaligen zwei Vektoren genau , wenn die Determinante der -Matrix , bestehend aus den drei Vektoren gleich Null ist. Die gleiche Idee wird auch in der Theorie der verwendeten Differentialgleichungen : gegebenen Funktionen (sein sollte mal differenzierbar ), die Wronskian definiert sein

Sie ist (für einige ) in einem bestimmten Intervall genau dann ungleich Null, wenn die gegebenen Funktionen und alle ihre Ableitungen bis zur Ordnung linear unabhängig sind. Wenn gezeigt werden kann, dass die Wronski-Funktion überall auf einem Intervall null ist, dann bedeutet dies im Fall analytischer Funktionen , dass die gegebenen Funktionen linear abhängig sind. Siehe die Wronski- und lineare Unabhängigkeit . Eine andere solche Verwendung der Determinante ist die Resultante , die ein Kriterium liefert, wenn zwei Polynome eine gemeinsame Wurzel haben .

Orientierung einer Basis

Die Determinante kann man sich so vorstellen, dass man jeder Folge von n Vektoren in R n eine Zahl zuweist , indem man die quadratische Matrix verwendet, deren Spalten die gegebenen Vektoren sind. Zum Beispiel repräsentiert eine orthogonale Matrix mit Einträgen in R n eine orthonormale Basis im euklidischen Raum . Die Determinante einer solchen Matrix bestimmt, ob die Orientierung der Basis mit der Orientierung der Standardbasis übereinstimmt oder ihr entgegengesetzt ist . Wenn die Determinante +1 ist, hat die Basis die gleiche Orientierung. Bei −1 hat die Basis die entgegengesetzte Orientierung.

Allgemeiner gesagt, wenn die Determinante von A positiv ist, stellt A eine orientierungserhaltende lineare Transformation dar (wenn A eine orthogonale 2 × 2 oder 3 × 3 Matrix ist, ist dies eine Drehung ), während wenn sie negativ ist, A wechselt die Orientierung der Grundlage.

Volumen und Jacobi-Determinante

Wie oben erwähnt, ist der Absolutwert der Determinante reeller Vektoren gleich dem Volumen des von diesen Vektoren aufgespannten Parallelepipeds . Wenn also die lineare Abbildung durch Multiplikation mit einer Matrix gegeben ist und eine messbare Teilmenge ist , dann ist das Volumen von mal dem Volumen von gegeben . Wenn die lineare Karte Allgemeiner durch die dargestellt wird -Matrix , dann ist das - dimensionale Volumen ist gegeben durch:

Durch Berechnung des Volumens des von vier Punkten begrenzten Tetraeders können diese verwendet werden, um schiefe Linien zu identifizieren . Das Volumen eines Tetraeders, gegeben seiner Scheitelpunkte , oder einer anderen Kombination von Scheitelpunktpaaren, die einen Spannbaum über den Scheitelpunkten bilden.

Eine nichtlineare Karte sendet ein kleines Quadrat (links, in Rot) an ein verzerrtes Parallelogramm (rechts, in Rot). Der Jacobi-Wert an einem Punkt liefert die beste lineare Annäherung des verzerrten Parallelogramms in der Nähe dieses Punktes (rechts, in durchscheinendem Weiß), und die Jacobi-Determinante gibt das Verhältnis der Fläche des approximierenden Parallelogramms zu der des ursprünglichen Quadrats an.

Für eine allgemeine differenzierbare Funktion wird vieles von dem oben Gesagten übertragen, wenn man die Jacobi-Matrix von f betrachtet . Zum

die Jacobi-Matrix ist die n × n- Matrix, deren Einträge durch die partiellen Ableitungen gegeben sind

Seine Determinante, die Jacobi-Determinante , erscheint in der höherdimensionalen Version der Integration durch Substitution : für geeignete Funktionen f und eine offene Teilmenge U von R n (das Gebiet von f ), das Integral über f ( U ) einer anderen Funktion φ  : R nR m ist gegeben durch

Die Jacobische Funktion kommt auch im Umkehrfunktionssatz vor .

Abstrakte algebraische Aspekte

Determinante eines Endomorphismus

Die oben genannten Identitäten die Determinante von Produkten und Inversen von Matrizen betreffend implizieren , dass ähnliche Matrizen die gleiche Determinante aufweisen: zwei Matrizen A und B sind ähnlich, wenn es eine invertierbare Matrix existiert X , so dass A = X -1 BX . Tatsächlich ergibt die wiederholte Anwendung der obigen Identitäten

Die Determinante wird daher auch Ähnlichkeitsinvariante genannt . Die Determinante einer linearen Transformation

Für einig endlich-dimensionalen Vektorraum V die Determinante der Matrix zu beschreiben , es zu sein , definiert ist , in Bezug auf eine willkürliche Wahl der Basis in V . Durch die Ähnlichkeitsinvarianz ist diese Determinante unabhängig von der Wahl der Basis für V und hängt daher nur vom Endomorphismus T ab .

Quadratmatrizen über kommutativen Ringen

Die obige Definition der Determinante unter Verwendung der Leibniz-Regel gilt allgemeiner, wenn die Einträge der Matrix Elemente eines kommutativen Rings sind , wie die ganzen Zahlen , im Gegensatz zum Körper der reellen oder komplexen Zahlen. Darüber hinaus gilt weiterhin die Charakterisierung der Determinante als einzigartige alternierende multilineare Abbildung, die zufriedenstellend ist, ebenso wie alle Eigenschaften, die sich aus dieser Charakterisierung ergeben.

Eine Matrix ist invertierbar (in dem Sinne, dass es eine inverse Matrix gibt, deren Einträge in sind ) genau dann, wenn ihre Determinante ein invertierbares Element in ist . Für bedeutet dies, dass die Determinante +1 oder –1 ist. Eine solche Matrix wird unimodular genannt .

Da die Determinante multiplikativ ist, definiert sie einen Gruppenhomomorphismus

zwischen der allgemeinen linearen Gruppe (der Gruppe der invertierbaren -Matrizen mit Einträgen in ) und der multiplikativen Gruppe von Einheiten in . Da sie die Multiplikation in beiden Gruppen berücksichtigt, ist diese Abbildung ein Gruppenhomomorphismus .

Die Determinante ist eine natürliche Transformation.

Bei einem Ringhomomorphismus ergibt sich eine Abbildung , indem alle Einträge in durch ihre Bilder unter ersetzt werden . Die Determinante respektiert diese Abbildungen, dh die Identität

hält. Mit anderen Worten, das angezeigte kommutative Diagramm pendelt.

Zum Beispiel ist die Determinante der komplex Konjugierten einer komplexen Matrix (die auch die Determinante ihrer konjugierten Transponierten ist) die komplex Konjugierte ihrer Determinante, und für ganzzahlige Matrizen: der Reduktionsmodulo der Determinante einer solchen Matrix ist gleich die Determinante der Matrix reduziertes Modulo (die letztere Determinante wird mit modularer Arithmetik berechnet ). In der Sprache der Kategorientheorie ist die Determinante eine natürliche Transformation zwischen den beiden Funktoren und . Wenn man eine weitere Abstraktionsebene hinzufügt, wird dies dadurch erfasst, dass die Determinante ein Morphismus algebraischer Gruppen ist , von der allgemeinen linearen Gruppe zur multiplikativen Gruppe .

Äußere Algebra

Die Determinante einer linearen Transformation eines -dimensionalen Vektorraums oder allgemeiner eines freien Moduls von (endlichem) Rang über einem kommutativen Ring kann koordinatenfrei unter Berücksichtigung der -ten äußeren Potenz von formuliert werden . Die Abbildung induziert eine lineare Abbildung

Da sie eindimensional ist, ergibt sich die Abbildung durch Multiplikation mit einem Skalar, dh einem Element in . Einige Autoren wie ( Bourbaki 1998 ) verwenden diese Tatsache, um die Determinante als das Element zur Erfüllung der folgenden Identität (für alle ) zu definieren:

Diese Definition stimmt mit der konkreteren koordinatenabhängigen Definition überein. Dies kann mit der Einzigkeit einer multilinearen alternierenden Form auf -Tupeln von Vektoren in gezeigt werden . Aus diesem Grund wird die höchste von Null verschiedene äußere Potenz (im Gegensatz zu der mit einem Endomorphismus verbundenen Determinante) manchmal auch als Determinante von und ähnlich für beteiligtere Objekte wie Vektorbündel oder Kettenkomplexe von Vektorräumen bezeichnet. In dieser Einstellung können auch Nebenwerte einer Matrix gegossen werden, indem niedrigere alternierende Formen mit berücksichtigt werden .

Verallgemeinerungen und verwandte Begriffe

Determinanten, wie sie oben behandelt wurden, lassen mehrere Varianten zu: Als Determinante wird die Permanente einer Matrix definiert, nur dass die in der Leibniz-Regel vorkommenden Faktoren weggelassen werden. Der Immanant verallgemeinert beides, indem er einen Charakter der symmetrischen Gruppe in die Leibniz-Regel einführt .

Determinanten für endlichdimensionale Algebren

Für jede assoziative Algebra , die als Vektorraum über einem Körper endlichdimensional ist , gibt es eine Determinantenabbildung

Diese Definition geht weiter, indem das charakteristische Polynom unabhängig von der Determinante festgelegt wird und die Determinante als Term niedrigster Ordnung dieses Polynoms definiert wird. Diese allgemeine Definition stellt die Determinante für die Matrixalgebra wieder her , schließt aber auch mehrere weitere Fälle ein, einschließlich der Determinante einer Quaternion ,

,

als Spezialfälle dieser Konstruktion treten auch die Norm einer Körpererweiterung , sowie die Pfaffische einer schiefsymmetrischen Matrix und die reduzierte Norm einer zentralen einfachen Algebra auf .

Unendliche Matrizen

Für Matrizen mit unendlich vielen Zeilen und Spalten übertragen sich die obigen Definitionen der Determinante nicht direkt. Beispielsweise müsste in der Leibniz-Formel eine unendliche Summe (deren Terme alle unendliche Produkte sind) berechnet werden. Die Funktionsanalyse bietet für solche unendlichdimensionalen Situationen verschiedene Erweiterungen der Determinante, die jedoch nur für bestimmte Arten von Operatoren funktionieren.

Die Fredholm-Determinante definiert die Determinante für Operatoren, die als Spurklassenoperatoren bekannt sind, durch eine geeignete Verallgemeinerung der Formel

Ein weiterer unendlichdimensionaler Begriff der Determinante ist die funktionale Determinante .

Operatoren in von Neumann-Algebren

Für Operatoren in einem endlichen Faktor kann man unter Verwendung der kanonischen Spur eine positive reellwertige Determinante namens Fuglede-Kadison-Determinante definieren . Tatsächlich gibt es für jeden Spurzustand auf einer von Neumann-Algebra einen Begriff der Fuglede-Kadison-Determinante.

Verwandte Begriffe für nichtkommutative Ringe

Bei Matrizen über nichtkommutativen Ringen sind Multilinearität und alternierende Eigenschaften für n ≥ 2 inkompatibel , daher gibt es in dieser Einstellung keine gute Definition der Determinante.

Für quadratische Matrizen mit Einträgen in einem nichtkommutativen Ring gibt es verschiedene Schwierigkeiten, Determinanten analog zu denen für kommutative Ringe zu definieren. Der Leibniz-Formel kann eine Bedeutung gegeben werden, sofern die Ordnung für das Produkt angegeben ist, und ähnlich für andere Definitionen der Determinante, aber die Nichtkommutativität führt dann zum Verlust vieler fundamentaler Eigenschaften der Determinante, wie der multiplikativen Eigenschaft oder dass die Determinante unter Transposition der Matrix unverändert bleibt. Über nichtkommutativen Ringen gibt es keine vernünftige Vorstellung von einer multilinearen Form (die Existenz einer von Null verschiedenen bilinearen Form mit einem regulären Element von R als Wert für ein Argumentpaar impliziert, dass R kommutativ ist). Nichtsdestotrotz wurden verschiedene Begriffe der nichtkommutativen Determinante formuliert, die einige der Eigenschaften von Determinanten, insbesondere Quasideterminanten und die Dieudonné-Determinante , beibehalten . Für einige Klassen von Matrizen mit nichtkommutativen Elementen kann man die Determinante definieren und Sätze der linearen Algebra beweisen, die ihren kommutativen Analoga sehr ähnlich sind. Beispiele hierfür sind die q -determinant auf Quantengruppen, die Capelli Determinante auf Capelli Matrizen und die Berezinian auf supermatrices (dh Matrizen , deren Einträge sind Elemente - abgestuft Ringe ). Manin-Matrizen bilden die Klasse, die Matrizen mit kommutativen Elementen am nächsten kommt.

Berechnung

Determinanten werden hauptsächlich als theoretisches Werkzeug verwendet. Sie werden selten explizit in der numerischen linearen Algebra berechnet , wo für Anwendungen wie die Überprüfung der Invertibilität und das Finden von Eigenwerten die Determinante weitgehend durch andere Techniken ersetzt wurde. Die Computergeometrie verwendet jedoch häufig Berechnungen in Bezug auf Determinanten.

Während die Determinante direkt mit der Leibniz-Regel berechnet werden kann, ist dieser Ansatz für große Matrizen äußerst ineffizient, da diese Formel die Berechnung von ( faktoriellen ) Produkten für eine -Matrix erfordert . Dadurch wächst die Zahl der erforderlichen Operationen sehr schnell: Es ist in Ordnung . Die Laplace-Expansion ist ähnlich ineffizient. Daher wurden kompliziertere Techniken zur Berechnung von Determinanten entwickelt.

Zersetzungsmethoden

Einige Methoden berechnen, indem sie die Matrix als Produkt von Matrizen schreiben, deren Determinanten leichter berechnet werden können. Solche Techniken werden als Zerlegungsverfahren bezeichnet. Beispiele hierfür sind die LU-Zerlegung , die QR-Zerlegung oder die Cholesky-Zerlegung (für positiv definite Matrizen ). Diese Methoden sind von Ordnung , was eine deutliche Verbesserung gegenüber .

Die LU-Zerlegung drückt sich beispielsweise als Produkt aus

einer Permutationsmatrix (die in jeder Spalte genau eine einzelne hat und ansonsten Nullen), eine untere Dreiecksmatrix und eine obere Dreiecksmatrix . Die Determinanten der beiden Dreiecksmatrizen und lassen sich schnell berechnen, da sie die Produkte der jeweiligen Diagonaleinträge sind. Die Determinante von ist nur das Vorzeichen der entsprechenden Permutation (die für eine gerade Anzahl von Permutationen gilt und für eine ungerade Anzahl von Permutationen). Sobald eine solche LU-Zerlegung für bekannt ist , lässt sich ihre Determinante leicht berechnen als

Weitere Methoden

Die durch Zerlegungsmethoden erreichte Ordnung wurde durch verschiedene Methoden verbessert. Wenn zwei Ordnungsmatrizen mit der Zeit multipliziert werden können , wo für einige , dann gibt es einen Algorithmus, der die Determinante in der Zeit berechnet . Das bedeutet beispielsweise, dass ein Algorithmus auf Basis des Coppersmith-Winograd-Algorithmus existiert . Dieser Exponent wurde ab 2016 weiter auf 2,373 gesenkt.

Neben der Komplexität des Algorithmus können weitere Kriterien zum Vergleich von Algorithmen herangezogen werden. Speziell für Anwendungen, die Matrizen über Ringen betreffen, existieren Algorithmen, die die Determinante ohne Divisionen berechnen. (Im Gegensatz dazu erfordert die Gauß-Eliminierung Divisionen.) Ein solcher Algorithmus mit Komplexität basiert auf der folgenden Idee: Man ersetzt Permutationen (wie in der Leibniz-Regel) durch sogenannte geschlossene geordnete Wanderungen , in denen mehrere Elemente wiederholt werden können. Die resultierende Summe hat mehr Terme als in der Leibniz-Regel, aber dabei können mehrere dieser Produkte wiederverwendet werden, was es effizienter macht, als naiv mit der Leibniz-Regel zu rechnen. Algorithmen können auch nach ihrer Bitkomplexität bewertet werden , dh wie viele Bits an Genauigkeit benötigt werden, um bei der Berechnung auftretende Zwischenwerte zu speichern. Zum Beispiel ist das Gaußsche Eliminationsverfahren (oder LU-Zerlegungsverfahren) von Ordnung , aber die Bitlänge von Zwischenwerten kann exponentiell lang werden. Im Vergleich dazu ist der Bareiss-Algorithmus ein exaktes Divisionsverfahren (also verwendet es Divisionen, aber nur in Fällen, in denen diese Divisionen ohne Rest durchgeführt werden können) ist von der gleichen Ordnung, aber die Bitkomplexität ist ungefähr die Bitgröße der Originaleinträge in der Matrix mal .

Wenn die Determinante von A und die Inverse von A bereits berechnet wurden, ermöglicht das Matrix-Determinanten-Lemma eine schnelle Berechnung der Determinante von A + uv T , wobei u und v Spaltenvektoren sind.

Charles Dodgson (dh Lewis Carroll von Alice's Adventures in Wonderland Ruhm) erfand eine Methode zur Berechnung von Determinanten, die Dodgson-Kondensation genannt wird . Leider funktioniert diese interessante Methode nicht immer in ihrer ursprünglichen Form.

Siehe auch

Anmerkungen

Verweise

Historische Referenzen

Externe Links