Nichtstandardisierte Analyse - Nonstandard analysis

Gottfried Wilhelm Leibniz argumentierte, dass idealisierte Zahlen mit Infinitesimalen eingeführt werden sollten.

Die Geschichte der Infinitesimalrechnung ist voller philosophischer Debatten über die Bedeutung und logische Gültigkeit von Fluxionen oder infinitesimalen Zahlen. Der Standardweg, um diese Debatten zu lösen, besteht darin, die Rechenoperationen mit Epsilon-Delta- Verfahren anstelle von Infinitesimalen zu definieren . Die Nichtstandard-Analyse formuliert stattdessen den Kalkül unter Verwendung eines logisch rigorosen Begriffs von infinitesimalen Zahlen neu.

Die nichtstandardisierte Analyse wurde in den frühen 1960er Jahren von dem Mathematiker Abraham Robinson entwickelt . Er schrieb:

... die Idee unendlich klein oder unendlich kleine Mengen scheint natürlich zu unserer Intuition ansprechen. Jedenfalls war die Verwendung von Infinitesimalen in der Entstehungsphase der Differential- und Integralrechnung weit verbreitet. Was den Einwand angeht, dass der Abstand zwischen zwei verschiedenen reellen Zahlen nicht unendlich klein sein kann, so argumentierte Gottfried Wilhelm Leibniz , dass die Theorie der infinitesimalen Zahlen die Einführung idealer Zahlen impliziert, die im Vergleich zu den reellen Zahlen unendlich klein oder unendlich groß sein können, aber die sollten die gleichen Eigenschaften wie diese besitzen.

Robinson argumentierte, dass dieses Stetigkeitsgesetz von Leibniz ein Vorläufer des Transferprinzips ist . Robinson fuhr fort:

Weder er noch seine Schüler und Nachfolger konnten jedoch eine rationale Entwicklung hin zu einem solchen System geben. Infolgedessen geriet die Theorie der Infinitesimalen nach und nach in Verruf und wurde schließlich durch die klassische Theorie der Grenzen ersetzt.

Robinson fährt fort:

... Leibniz' Ideen können vollständig bestätigt werden und ... sie führen zu einem neuen und fruchtbaren Zugang zur klassischen Analysis und zu vielen anderen Zweigen der Mathematik. Den Schlüssel zu unserer Methode liefert die detaillierte Analyse der Beziehung zwischen mathematischen Sprachen und mathematischen Strukturen, die der heutigen Modelltheorie zugrunde liegt .

1973 lobte der Intuitionist Arend Heyting die Nichtstandardanalyse als "ein Standardmodell wichtiger mathematischer Forschung".

Einführung

Ein Element eines geordneten Felds ungleich Null ist genau dann infinitesimal, wenn sein absoluter Wert kleiner als ein beliebiges Element der Form für eine natürliche Standardzahl ist. Geordnete Felder mit infinitesimalen Elementen werden auch als nicht-archimedisch bezeichnet . Allgemeiner ausgedrückt ist die Nicht-Standard- Analyse jede Form der Mathematik, die auf Nicht-Standard-Modellen und dem Übertragungsprinzip beruht . Ein Körper, der das Übertragungsprinzip für reelle Zahlen erfüllt, ist ein hyperrealer Körper , und die nichtstandardisierte reelle Analyse verwendet diese Felder als nichtstandardisierte Modelle der reellen Zahlen.

Robinsons ursprünglicher Ansatz basierte auf diesen nicht standardisierten Modellen des Körpers der reellen Zahlen. Sein klassisches Grundlagenbuch zum Thema Nonstandard Analysis wurde 1966 veröffentlicht und ist noch immer im Druck. Auf Seite 88 schreibt Robinson:

Die Existenz nicht standardisierter Arithmetikmodelle wurde von Thoralf Skolem (1934) entdeckt. Skolems Methode lässt die Ultrapower- Konstruktion [...]

Um eine Infinitesimalrechnung zu entwickeln, müssen mehrere technische Probleme angegangen werden. Zum Beispiel reicht es nicht aus, einen geordneten Körper mit infinitesimalen Zahlen zu konstruieren. Siehe den Artikel über hyperreale Zahlen für eine Diskussion einiger der relevanten Ideen.

Grundlegende Definitionen

In diesem Abschnitt skizzieren wir einen der einfachsten Ansätze zur Definition eines hyperrealen Feldes . Sei der Körper der reellen Zahlen und sei der Halbring der natürlichen Zahlen. Bezeichne durch die Menge von Folgen reeller Zahlen. Ein Feld wird wie folgt als geeigneter Quotient von definiert . Nehmen Sie einen nicht-hauptsächlichen Ultrafilter . Enthält insbesondere den Fréchet-Filter . Betrachten Sie ein Paar von Sequenzen

Wir sagen das und sind äquivalent, wenn sie auf einer Reihe von Indizes, die Teil des Ultrafilters sind, oder in Formeln zusammenfallen:

Der Quotient aus durch die resultierende Äquivalenzrelation ist ein hyperrealer Körper , eine Situation, die durch die Formel zusammengefasst wird .

Motivation

Es gibt mindestens drei Gründe, eine nicht standardmäßige Analyse in Betracht zu ziehen: historische, pädagogische und technische.

Historisch

Ein Großteil der frühesten Entwicklung der Infinitesimalrechnung von Newton und Leibniz wurde unter Verwendung von Ausdrücken wie der infinitesimalen Zahl und der verschwindenden Quantität formuliert . Wie im Artikel über hyperreale Zahlen erwähnt , wurden diese Formulierungen von George Berkeley und anderen weithin kritisiert . Die Herausforderung, eine konsistente und zufriedenstellende Analysetheorie unter Verwendung von Infinitesimalen zu entwickeln, wurde zuerst von Abraham Robinson gelöst.

1958 veröffentlichten Curt Schmieden und Detlef Laugwitz einen Artikel "Eine Erweiterung der Infinitesimalrechnung", der die Konstruktion eines Rings mit infinitesimalen Zahlen vorschlug. Der Ring wurde aus Folgen reeller Zahlen konstruiert. Zwei Folgen wurden als gleichwertig angesehen, wenn sie sich nur in einer endlichen Anzahl von Elementen unterschieden. Arithmetische Operationen wurden elementweise definiert. Der so konstruierte Ring enthält jedoch Nullteiler und kann somit kein Körper sein.

Pädagogisch

H. Jerome Keisler , David Tall und andere Pädagogen behaupten, dass die Verwendung von Infinitesimalen für die Schüler intuitiver und leichter zu verstehen ist als der "Epsilon-Delta"-Ansatz für analytische Konzepte. Dieser Ansatz kann manchmal einfachere Beweise für Ergebnisse liefern als die entsprechende Epsilon-Delta-Formulierung des Beweises. Ein Großteil der Vereinfachung ergibt sich aus der Anwendung sehr einfacher Regeln der nicht standardmäßigen Arithmetik, wie folgt:

infinitesimal × endlich = infinitesimal
unendlich klein + unendlich klein = unendlich klein

zusammen mit dem unten erwähnten Übertragungsprinzip.

Eine weitere pädagogische Anwendung der Nichtstandardanalyse ist Edward Nelsons Behandlung der Theorie stochastischer Prozesse .

Technisch

Einige neuere Arbeiten wurden in der Analyse unter Verwendung von Konzepten aus der Nichtstandard-Analyse durchgeführt, insbesondere bei der Untersuchung limitierender Prozesse der Statistik und der mathematischen Physik. Sergio Albeverioet al. diskutieren einige dieser Anwendungen.

Ansätze zur Nichtstandardanalyse

Es gibt im Wesentlichen zwei unterschiedliche Ansätze für die Nichtstandardanalyse: den semantischen oder modelltheoretischen Ansatz und den syntaktischen Ansatz. Beide Ansätze gelten für andere Bereiche der Mathematik jenseits der Analysis, einschließlich Zahlentheorie, Algebra und Topologie.

Robinsons ursprüngliche Formulierung der Nichtstandardanalyse fällt in die Kategorie des semantischen Ansatzes . Wie von ihm in seinen Arbeiten entwickelt, basiert es auf dem Studium von Modellen (insbesondere gesättigten Modellen ) einer Theorie . Seit dem Erscheinen von Robinsons Arbeit wurde ein einfacherer semantischer Ansatz (durch Elias Zakon) entwickelt, der rein mengentheoretische Objekte verwendet, die Superstrukturen genannt werden . Bei diesem Ansatz wird ein Modell einer Theorie durch ein Objekt namens Überbau V ( S ) über einer Menge S ersetzt . Ausgehend von einem Überbau V ( S ) konstruiert man ein weiteres Objekt * V ( S ) unter Verwendung der Ultrapower- Konstruktion zusammen mit einer Abbildung V ( S ) → * V ( S ) , die dem Transferprinzip genügt . Die Abbildung * bezieht sich auf formale Eigenschaften von V ( S ) und * V ( S ) . Darüber hinaus ist es möglich, eine einfachere Form der Sättigung in Betracht zu ziehen, die als zählbare Sättigung bezeichnet wird. Dieser vereinfachte Ansatz eignet sich auch eher für Mathematiker, die keine Spezialisten für Modelltheorie oder Logik sind.

Der syntaktische Ansatz erfordert viel weniger Logik und Modelltheorie, um sie zu verstehen und zu verwenden. Dieser Ansatz wurde Mitte der 1970er Jahre von dem Mathematiker Edward Nelson entwickelt . Nelson führte eine vollständig axiomatische Formulierung der Nichtstandardanalyse ein, die er Internal Set Theory (IST) nannte. IST ist eine Erweiterung der Zermelo-Fraenkel Mengenlehre (ZF) in dem neben der grundlegenden binären Mitgliedschafts Beziehung ∈ es einen neuen unären Prädikat führt Standard , die den Elemente des mathematischen Universums mit einigen Axiomen für die Argumentation mit diesem neuen gemeinsam angewandt werden können , Prädikat.

Die syntaktische Nicht-Standard-Analyse erfordert große Sorgfalt bei der Anwendung des Prinzips der Mengenbildung (früher bekannt als das Axiom des Verstehens ), das Mathematiker normalerweise für selbstverständlich halten. Nelson weist darauf hin, dass ein Denkfehler in der IST die illegale Setbildung ist . Beispielsweise gibt es in IST keine Menge, deren Elemente genau die Standard-Ganzzahlen sind (hier wird Standard im Sinne des neuen Prädikats verstanden). Um eine unzulässige Mengenbildung zu vermeiden, darf man nur Prädikate von ZFC verwenden, um Teilmengen zu definieren.

Ein weiteres Beispiel für den syntaktischen Ansatz ist die von Petr Vopěnka eingeführte Alternative Mengenlehre , die versucht, mengentheoretische Axiome zu finden, die besser mit der Nichtstandardanalyse kompatibel sind als die Axiome von ZF.

Im Jahr 2018 schlug Abdeljalil Saghe einen expliziten Ansatz vor, um das Gebiet der Nichtstandardanalyse ohne Verwendung von Ultrafiltern zu konstruieren.

Im selben Jahr 2018 wurde von Anggha Nugraha ein weiterer Ansatz eingeführt, um die Naive Infinitesimal Analysis zu erstellen, die er als Naive Infinitesimal Analysis bezeichnet. Sein Ansatz liegt zwischen den beiden oben genannten Ansätzen (semantische und syntaktische Ansätze). Semantisch schlug er ein Modell vor, das in gewisser Weise eine vereinfachte Version von ist . Aber er ließ sich nicht dies in der Art und Weise des Ziels wird eine gemeinsame Sprache mit über beide zu sprechen und . Axiomatisch sprach er auch über Syntax. Er verwendete einige Prinzipien, die auch an Bell erinnern – Mikrostabilität und so weiter. Trotzdem musste er nicht zwischen "internen" und "externen" Sets unterscheiden, da seine Strategie Chunk & Permeate ist , sodass er sich keine Sorgen über die Inkonsistenzen machen musste, die sich aus der Verschmelzung der beiden ergeben. Ein weiterer Vorteil seines Ansatzes ist, dass er einigermaßen intuitiv funktioniert, ohne sich (zu) in technischen Komplikationen zu verzetteln.

Robinsons Buch

1966 erschien Abraham Robinsons Buch Nonstandard analysis . Einige der im Buch behandelten Themen waren bereits in seinem gleichnamigen Artikel von 1961 enthalten (Robinson 1961). Neben der ersten vollständigen Behandlung der nichtstandardisierten Analyse enthält das Buch einen detaillierten historischen Abschnitt, in dem Robinson einige der erhaltenen Meinungen zur Geschichte der Mathematik auf der Grundlage der Wahrnehmung von Infinitesimalen als inkonsistente Einheiten vor der nichtstandardisierten Analyse in Frage stellt. Somit stellt Robinson die Idee in Frage, dass Augustin-Louis Cauchys " Summensatz " in Cours d'Analyse bezüglich der Konvergenz einer Reihe stetiger Funktionen falsch war, und schlägt eine infinitesimal-basierte Interpretation seiner Hypothese vor, die zu einem korrekten Theorem führt .

Invariantes Unterraumproblem

Abraham Robinson und Allen Bernstein verwendeten die Nichtstandard-Analyse, um zu beweisen, dass jeder polynomiell kompakte lineare Operator auf einem Hilbert-Raum einen invarianten Unterraum hat .

Betrachten Sie einen gegebenen Operator T auf dem Hilbertraum H , die Bahn eines Punktes v in H unter den Iterationen von T . Mit Gram-Schmidt erhält man eine Orthonormalbasis ( e i ) für H . Sei ( H i ) die entsprechende verschachtelte Folge von "Koordinaten"-Unterräumen von H . Die Matrix a i,j , die T in Bezug auf ( e i ) ausdrückt, ist fast ein oberes Dreieck in dem Sinne, dass die Koeffizienten a i +1, i die einzigen Unterdiagonalkoeffizienten ungleich Null sind. Bernstein und Robinson zeigen, dass wenn T polynomiell kompakt ist, es einen hyperfiniten Index w gibt, so dass der Matrixkoeffizient a w +1, w infinitesimal ist. Betrachten Sie als nächstes den Unterraum H w von * H . Wenn y in H w endliche Norm hat, dann liegt T ( y ) unendlich nahe bei H w .

Sei nun T w der auf H w wirkende Operator , wobei P w die orthogonale Projektion auf H w ist . Bezeichne mit q das Polynom, so dass q ( T ) kompakt ist. Der Unterraum H w ist intern von hyperfiniter Dimension. Durch Übertragung der oberen Triangularisierung von Operatoren des endlichdimensionalen komplexen Vektorraums gibt es eine interne orthonormale Hilbertraumbasis ( e k ) für H w , wobei k von 1 bis w verläuft , sodass jeder der entsprechenden k- dimensionalen Unterräume E k . ist T- invariant. Bezeichne mit Π k die Projektion auf den Unterraum E k . Für einen von Null verschiedenen Vektor x endlicher Norm in H kann man annehmen, dass q ( T )( x ) von Null verschieden ist, oder | q ( T )( x )| > 1 um Ideen zu korrigieren. Da q ( T ) ein kompakter Operator ist, ist ( q ( T w ))( x ) unendlich nah an q ( T )( x ) und daher gilt auch | q ( T w ) ( x ) | > 1 . Sei nun j der größte Index, so dass . Dann ist der Raum aller Standardelemente unendlich nahe E j der gesuchte invariante Unterraum.

Nachdem Paul Halmos einen Vorabdruck des Papiers von Bernstein und Robinson gelesen hatte, interpretierte er ihren Beweis mit Standardtechniken neu. Beide Papiere erschienen nacheinander in derselben Ausgabe des Pacific Journal of Mathematics . Einige der in Halmos' Beweis verwendeten Ideen tauchten viele Jahre später in Halmos' eigener Arbeit über quasi-dreieckige Operatoren wieder auf.

Andere Anwendungen

Andere Ergebnisse wurden im Rahmen der Neuinterpretation oder der Widerlegung früher bekannter Ergebnisse erhalten. Von besonderem Interesse sind der Beweis des individuellen Ergodensatzes von Teturo Kamae oder L. van den Dries und Alex Wilkies Behandlung des Satzes von Gromov über Gruppen des polynomialen Wachstums . Die Nichtstandardanalyse wurde von Larry Manevitz und Shmuel Weinberger verwendet , um ein Ergebnis in der algebraischen Topologie zu beweisen.

Die wirklichen Beiträge der Nichtstandardanalyse liegen jedoch in den Konzepten und Theoremen, die die neue erweiterte Sprache der Nichtstandardmengentheorie verwenden. Unter der Liste neuer Anwendungen in der Mathematik befinden sich neue Ansätze in den Bereichen Wahrscheinlichkeit, Hydrodynamik, Maßtheorie, nichtglatte und harmonische Analyse usw.

Es gibt auch Anwendungen der Nichtstandardanalyse in der Theorie stochastischer Prozesse, insbesondere Konstruktionen der Brownschen Bewegung als Random Walks . Albeverioet al. einen hervorragenden Einstieg in dieses Forschungsgebiet.

Anwendungen in der Infinitesimalrechnung

Als Anwendung auf mathematische Bildung , H. Jerome Keisler schrieb Elementary Calculus: Ein Infinitesimale Ansatz . Es deckt nichtstandardisierte Kalküle ab und entwickelt Differential- und Integralrechnung unter Verwendung der hyperrealen Zahlen, die infinitesimale Elemente enthalten. Diese Anwendungen der Nichtstandardanalyse hängen von der Existenz des Standardteils eines endlichen hyperrealen r ab . Der Standardteil von r , mit st( r ) bezeichnet , ist eine reelle Standardzahl, die unendlich nahe bei r liegt . Eines der Visualisierungsgeräte, die Keisler verwendet, ist das eines imaginären Mikroskops mit unendlicher Vergrößerung, um unendlich nahe beieinander liegende Punkte zu unterscheiden. Keislers Buch ist inzwischen vergriffen, aber auf seiner Website frei verfügbar; siehe Referenzen unten.

Kritik

Trotz der Eleganz und Anziehungskraft einiger Aspekte der nicht standardisierten Analyse wurde auch Kritik geäußert, wie die von Errett Bishop , Alain Connes und Paul Halmos , wie bei der Kritik an der nicht standardisierten Analyse dokumentiert .

Logischer Rahmen

Für eine beliebige Menge S ist die Überstruktur über einer Menge S die Menge V ( S ) definiert durch die Bedingungen

So ist die Überstruktur über S wird ausgehend von erhaltenen S und Iterieren die Operation der von angrenzender Potenzmenge von S und die Vereinigung der resultierenden Sequenz nimmt. Der Überbau über die reellen Zahlen enthält eine Fülle mathematischer Strukturen: Er enthält beispielsweise isomorphe Kopien aller separierbaren metrischen Räume und metrisierbare topologische Vektorräume. Praktisch die gesamte Mathematik, die einen Analytiker interessiert, spielt sich innerhalb von V ( R ) ab .

Die Arbeitsansicht der Nichtstandardanalyse ist eine Menge * R und eine Abbildung * : V ( R ) → V (* R ) , die einige zusätzliche Eigenschaften erfüllt. Um diese Prinzipien zu formulieren, geben wir zunächst einige Definitionen an.

Eine Formel hat genau dann eine beschränkte Quantifizierung, wenn die einzigen Quantoren, die in der Formel vorkommen, einen auf Mengen beschränkten Bereich haben, d. h. alle von der Form:

Zum Beispiel die Formel

hat eine beschränkte Quantifizierung, die universell quantifizierte Variable x reicht über A , die existentiell quantifizierte Variable y reicht über die Potenzmenge von B . Auf der anderen Seite,

hat keine beschränkte Quantifizierung, da die Quantifizierung von y unbeschränkt ist.

Interne Sätze

Eine Menge x ist genau dann intern, wenn x ein Element von * A für ein Element A von V ( R ) ist . * A selbst ist intern, wenn A zu V ( R ) gehört .

Wir formulieren nun den grundlegenden logischen Rahmen der Nichtstandardanalyse:

  • Erweiterung Prinzip : Die Abbildung * ist die Identität auf R .
  • Übertragungsprinzip : Für jede Formel P ( x 1 , ..., x n ) mit beschränkter Quantifizierung und mit freien Variablen x 1 , ..., x n , und für beliebige Elemente A 1 , ..., A n von V ( R ) gilt folgende Äquivalenz:
  • Abzählbare Sättigung : Wenn { A k } kN eine abnehmende Folge von nichtleeren internen Mengen ist, wobei k über die natürlichen Zahlen reicht, dann

Mit ultraproducts kann man zeigen, dass eine solche Karte * existiert. Elemente von V ( R ) werden als Standard bezeichnet . Elemente von * R heißen hyperreale Zahlen .

Erste Konsequenzen

Das Symbol * N bezeichnet die nicht standardmäßigen natürlichen Zahlen. Nach dem Erweiterungsprinzip ist dies eine Obermenge von N . Die Menge * NN ist nicht leer. Um dies zu sehen, wenden Sie abzählbare Sättigung auf die Sequenz interner Mengen an

Die Folge { A n } nN hat einen nichtleeren Durchschnitt, was das Ergebnis beweist.

Wir beginnen mit einigen Definitionen: Hyperreale r , s sind genau dann unendlich nah, wenn

Ein hyperrealen r ist infinitesimal wenn und nur wenn es auf 0. Zum Beispiel unendlich nahe ist, wenn n ein hyperinteger , das heißt ein Element der * N - N , dann 1 / n eine unendlich ist. Ein hyperreales r ist genau dann begrenzt (oder endlich ), wenn sein absoluter Wert von (weniger als) einer Standardzahl dominiert wird. Die begrenzten Hyperrealen bilden einen Teilring von * R , der die reellen Zahlen enthält. In diesem Ring sind die infinitesimalen Hyperrealen ein Ideal .

Die Menge der begrenzten Hyperrealen oder die Menge der infinitesimalen Hyperrealen sind externe Teilmengen von V (* R ) ; In der Praxis bedeutet dies, dass die beschränkte Quantifizierung, bei der die Schranke eine interne Menge ist, niemals über diese Mengen reicht.

Beispiel : Die Ebene ( x , y ) mit x und y über * R ist intern und ist ein Modell der ebenen euklidischen Geometrie. Die Ebene mit auf begrenzte Werte beschränkten x und y (analog der Dehn-Ebene ) ist extern, und in dieser begrenzten Ebene wird das Parallelpostulat verletzt. Zum Beispiel ist jede Linie, die durch den Punkt (0, 1) auf der y- Achse verläuft und eine infinitesimale Steigung hat, parallel zur x- Achse.

Satz. Für jedes begrenzte hyperreale r gibt es eine eindeutige Standardreelle mit der Bezeichnung st( r ) unendlich nahe bei r . Die Abbildung st ist ein Ringhomomorphismus vom Ring der limitierten Hyperrealen auf R .

Die Mapping-St ist ebenfalls extern.

Eine Möglichkeit, den Standardteil eines Hyperreals zu betrachten, ist in Begriffen von Dedekind-Schnitten ; jedes begrenzte hyperreale s definiert einen Schnitt, indem das Paar von Mengen ( L , U ) betrachtet wird, wobei L die Menge der Standardrationalen a kleiner als s und U die Menge der Standardrationalen b größer als s ist . Die reelle Zahl, die ( L , U ) entspricht, erfüllt die Bedingung, der Standardteil von s zu sein .

Eine intuitive Charakterisierung der Kontinuität lautet wie folgt:

Satz. Eine reellwertige Funktion f auf dem Intervall [ a , b ] ist genau dann stetig, wenn für jedes hyperreale x im Intervall *[ a , b ] gilt: * f ( x ) ≅ * f (st( x ) ) .

(Siehe Mikrokontinuität für weitere Details). Ähnlich,

Satz. Eine reellwertige Funktion f ist genau dann am reellen Wert x differenzierbar, wenn für jede infinitesimale hyperreelle Zahl h der Wert

existiert und ist unabhängig von h . In diesem Fall ist f ′( x ) eine reelle Zahl und die Ableitung von f an x .

κ -Sättigung

Es ist möglich, die Sättigung zu "verbessern", indem ermöglicht wird, dass Sammlungen höherer Kardinalität geschnitten werden. Ein Modell ist κ - gesättigt, wenn es sich um eine Sammlung interner Mengen mit der endlichen Schnitteigenschaft handelt und ,

Dies ist zum Beispiel in einem topologischen Raum X nützlich, wo wir |2 X | -Sättigung, um sicherzustellen, dass der Schnittpunkt einer Standard- Nachbarschaftsbasis nicht leer ist.

Für jeden Kardinalwert κ kann eine κ -gesättigte Erweiterung konstruiert werden.

Siehe auch

Weiterlesen

Verweise

Literaturverzeichnis

Externe Links