Mathematische Logik - Mathematical logic

Mathematische Logik ist das Studium der Logik innerhalb der Mathematik . Wesentliche Teilgebiete sind Modelltheorie , Beweistheorie , Mengenlehre und Rekursionstheorie . Die Forschung in der mathematischen Logik befasst sich im Allgemeinen mit den mathematischen Eigenschaften formaler Logiksysteme wie ihrer Ausdrucks- oder Deduktionskraft. Es kann jedoch auch Anwendungen der Logik beinhalten, um korrekte mathematische Überlegungen zu charakterisieren oder um Grundlagen der Mathematik zu schaffen .

Seit ihren Anfängen hat die mathematische Logik sowohl zum Studium der Grundlagen der Mathematik beigetragen als auch von ihr motiviert. Diese Studie begann im späten 19. Jahrhundert mit der Entwicklung axiomatischer Frameworks für Geometrie , Arithmetik und Analysis . Im frühen 20. Jahrhundert wurde es von förmigen David Hilbert ‚s Programm der Konsistenz der grundlegenden Theorien zu beweisen. Die Ergebnisse von Kurt Gödel , Gerhard Gentzen und anderen haben das Programm teilweise gelöst und die Fragen geklärt, die mit dem Nachweis der Konsistenz verbunden sind. Die Arbeiten in der Mengenlehre haben gezeigt, dass fast die gesamte gewöhnliche Mathematik in Form von Mengen formalisiert werden kann, obwohl es einige Sätze gibt, die in gängigen Axiomensystemen für die Mengenlehre nicht bewiesen werden können. Zeitgenössische Arbeiten in den Grundlagen der Mathematik konzentrieren sich oft darauf, festzustellen, welche Teile der Mathematik in bestimmten formalen Systemen (wie in der umgekehrten Mathematik ) formalisiert werden können, anstatt Theorien zu finden, in denen die gesamte Mathematik entwickelt werden kann.

Unterfelder und Geltungsbereich

Das Handbook of Mathematical Logic von 1977 gliedert die heutige mathematische Logik grob in vier Bereiche:

  1. Mengenlehre
  2. Modelltheorie
  3. Rekursionstheorie und
  4. Beweistheorie und konstruktive Mathematik (betrachtet als Teile eines einzigen Gebietes).

Jeder Bereich hat einen eigenen Schwerpunkt, obwohl viele Techniken und Ergebnisse von mehreren Bereichen geteilt werden. Die Grenzen zwischen diesen Gebieten und die Trennlinien zwischen der mathematischen Logik und anderen Gebieten der Mathematik sind nicht immer scharf. Gödels Unvollständigkeitssatz markiert nicht nur einen Meilenstein in der Rekursionstheorie und Beweistheorie, sondern hat auch zu Löbs Satz in der Modallogik geführt. Die Methode des Forcens wird in der Mengenlehre, Modelltheorie und Rekursionstheorie sowie in der intuitionistischen Mathematik verwendet.

Das mathematische Gebiet der Kategorientheorie verwendet viele formale axiomatische Methoden und umfasst das Studium der kategorialen Logik , aber die Kategorientheorie wird normalerweise nicht als Teilgebiet der mathematischen Logik angesehen. Aufgrund ihrer Anwendbarkeit in verschiedenen Bereichen der Mathematik haben Mathematiker, darunter Saunders Mac Lane , die Kategorientheorie als grundlegendes System für die Mathematik unabhängig von der Mengenlehre vorgeschlagen. Diese Grundlagen verwenden Toposen , die verallgemeinerten Modellen der Mengenlehre ähneln, die klassische oder nichtklassische Logik verwenden können.

Geschichte

Die mathematische Logik entstand Mitte des 19. Jahrhunderts als Teilgebiet der Mathematik und spiegelt das Zusammentreffen zweier Traditionen wider: formale philosophische Logik und Mathematik. "Mathematische Logik, auch 'Logistik', 'symbolische Logik', ' Algebra der Logik ' und in jüngerer Zeit einfach 'formale Logik' genannt, ist die Menge logischer Theorien, die im Laufe des letzten [neunzehnten] Jahrhunderts ausgearbeitet wurden mit Hilfe einer künstlichen Notation und einer streng deduktiven Methode." Vor dieser Entstehung wurde Logik mit Rhetorik , mit Berechnungen , durch den Syllogismus und mit Philosophie studiert . In der ersten Hälfte des 20. Jahrhunderts kam es zu einer Explosion grundlegender Ergebnisse, begleitet von einer heftigen Debatte über die Grundlagen der Mathematik.

Frühe Geschichte

Logiktheorien wurden in vielen Kulturen der Geschichte entwickelt, darunter in China , Indien , Griechenland und der islamischen Welt . Griechische Methoden, insbesondere die aristotelische Logik (oder Begriffslogik), wie sie im Organon zu finden ist , fanden seit Jahrtausenden breite Anwendung und Akzeptanz in der westlichen Wissenschaft und Mathematik. Die Stoiker , insbesondere Chrysippus , begannen mit der Entwicklung der Prädikatenlogik . Im Europa des 18. Jahrhunderts hatten philosophische Mathematiker wie Leibniz und Lambert Versuche unternommen, die Operationen der formalen Logik auf symbolische oder algebraische Weise zu behandeln , aber ihre Arbeiten blieben isoliert und wenig bekannt.

19. Jahrhundert

Mitte des 19. Jahrhunderts präsentierten George Boole und dann Augustus De Morgan systematische mathematische Behandlungen der Logik. Ihre Arbeit, die auf Arbeiten von Algebraisten wie George Peacock aufbaut , erweitert die traditionelle aristotelische Logiklehre zu einem ausreichenden Rahmen für das Studium der Grundlagen der Mathematik . Charles Sanders Peirce baute später auf der Arbeit von Boole auf, um ein logisches System für Beziehungen und Quantoren zu entwickeln, das er von 1870 bis 1885 in mehreren Aufsätzen veröffentlichte.

Eine eigenständige Entwicklung der Logik mit Quantoren präsentiert Gottlob Frege in seiner 1879 erschienenen Begriffsschrift , einem Werk, das allgemein als Wendepunkt in der Geschichte der Logik gilt. Freges Werk blieb jedoch im Dunkeln, bis Bertrand Russell um die Jahrhundertwende begann, es zu fördern. Die von Frege entwickelte zweidimensionale Notation wurde nie weit verbreitet und wird in zeitgenössischen Texten nicht verwendet.

Von 1890 bis 1905 Ernst Schröder veröffentlichte Vorlesungen über Algebra der Logik sterben in drei Bänden. Dieses Werk fasste das Werk von Boole, De Morgan und Peirce zusammen und erweiterte es und war ein umfassender Hinweis auf die symbolische Logik, wie sie am Ende des 19. Jahrhunderts verstanden wurde.

Grundlegende Theorien

Bedenken, dass die Mathematik nicht auf einem richtigen Fundament aufgebaut war, führten zur Entwicklung axiomatischer Systeme für grundlegende Gebiete der Mathematik wie Arithmetik, Analysis und Geometrie.

In der Logik bezieht sich der Begriff Arithmetik auf die Theorie der natürlichen Zahlen . Giuseppe Peano veröffentlichte eine Reihe von Axiomen für die Arithmetik, die seinen Namen trugen ( Peano-Axiome ), wobei er eine Variation des logischen Systems von Boole und Schröder verwendete, aber Quantoren hinzufügte. Peano wusste zu dieser Zeit nichts von Freges Arbeit. Etwa zur gleichen Zeit zeigte Richard Dedekind , dass die natürlichen Zahlen durch ihre Induktionseigenschaften eindeutig gekennzeichnet sind . Dedekind schlug eine andere Charakterisierung vor, der der formal-logische Charakter von Peanos Axiomen fehlte. Dedekinds Arbeit bewies jedoch, dass Theoreme in Peanos System unzugänglich waren, einschließlich der Eindeutigkeit der Menge natürlicher Zahlen (bis hin zum Isomorphismus) und der rekursiven Definitionen von Addition und Multiplikation aus der Nachfolgefunktion und der mathematischen Induktion.

Mitte des 19. Jahrhunderts wurden Mängel in Euklids Axiomen für die Geometrie bekannt. Neben der Unabhängigkeit des 1826 von Nikolai Lobatschewski aufgestellten Parallelpostulats entdeckten Mathematiker, dass bestimmte von Euklid als selbstverständlich angesehene Sätze tatsächlich nicht aus seinen Axiomen beweisbar waren. Dazu gehört der Satz, dass eine Gerade mindestens zwei Punkte enthält oder dass sich Kreise gleichen Radius, deren Mittelpunkte durch diesen Radius getrennt sind, schneiden müssen. Hilbert entwickelte einen vollständigen Satz von Axiomen für die Geometrie , aufbauend auf früheren Arbeiten von Pasch. Der Erfolg bei der Axiomatisierung der Geometrie motivierte Hilbert, nach vollständigen Axiomatisierungen anderer Bereiche der Mathematik, wie der natürlichen Zahlen und der reellen Geraden, zu suchen . Dies sollte sich in der ersten Hälfte des 20. Jahrhunderts als ein wichtiges Forschungsgebiet erweisen.

Im 19. Jahrhundert gab es große Fortschritte in der Theorie der reellen Analysis , einschließlich der Theorien der Konvergenz von Funktionen und Fourier-Reihen . Mathematiker wie Karl Weierstrass begannen damit, Funktionen zu konstruieren, die die Intuition erweiterten, wie zum Beispiel nirgendwo differenzierbare stetige Funktionen . Bisherige Vorstellungen von einer Funktion als Rechenregel oder einem glatten Graphen waren nicht mehr ausreichend. Weierstrass begann, die Arithmetisierung der Analysis zu befürworten , die eine Axiomatisierung der Analysis unter Verwendung der Eigenschaften der natürlichen Zahlen anstrebte. Die moderne (ε, δ)-Definition von Grenz- und stetigen Funktionen wurde bereits 1817 von Bozen entwickelt , blieb aber relativ unbekannt. Cauchy definierte 1821 Kontinuität in Form von Infinitesimalen (siehe Cours d'Analyse, Seite 34). Im Jahr 1858 schlug Dedekind eine Definition der reellen Zahlen in Form von Dedekind-Schnitten rationaler Zahlen vor, eine Definition, die noch in zeitgenössischen Texten verwendet wird.

Georg Cantor entwickelte die grundlegenden Konzepte der unendlichen Mengenlehre. Seine frühen Ergebnisse entwickelten die Kardinalitätstheorie und bewiesen, dass die reellen und natürlichen Zahlen unterschiedliche Kardinalitäten haben. In den nächsten zwanzig Jahren entwickelte Cantor in einer Reihe von Veröffentlichungen eine Theorie der transfiniten Zahlen . Im Jahr 1891 veröffentlichte er einen neuen Beweis für die Unzählbarkeit der reellen Zahlen, der das Diagonalargument einführte , und verwendete diese Methode, um den Satz von Cantor zu beweisen, dass keine Menge die gleiche Kardinalität wie ihre Potenzmenge haben kann . Cantor glaubte, dass jede Menge gut geordnet werden könne , konnte jedoch keinen Beweis für dieses Ergebnis erbringen, sodass es 1895 als offenes Problem belassen wurde.

20. Jahrhundert

In den ersten Jahrzehnten des 20. Jahrhunderts waren die Hauptforschungsgebiete die Mengenlehre und die formale Logik. Die Entdeckung von Paradoxien in der informellen Mengenlehre veranlasste einige dazu, sich zu fragen, ob die Mathematik selbst inkonsistent ist, und nach Beweisen für die Konsistenz zu suchen.

1900 stellte Hilbert eine berühmte Liste von 23 Problemen für das nächste Jahrhundert auf. Die ersten beiden sollten die Kontinuumshypothese auflösen bzw. die Konsistenz der elementaren Arithmetik beweisen; die zehnte bestand darin, eine Methode zu entwickeln, die entscheiden konnte, ob eine multivariate polynomiale Gleichung über die ganzen Zahlen eine Lösung hat. Nachfolgende Arbeiten zur Lösung dieser Probleme prägten die Richtung der mathematischen Logik, ebenso wie die Bemühungen , das 1928 gestellte Entscheidungsproblem von Hilbert zu lösen . Dieses Problem verlangte nach einem Verfahren, das bei einer formalisierten mathematischen Aussage entscheiden würde, ob die Aussage wahr oder falsch ist.

Mengenlehre und Paradoxien

Ernst Zermelo lieferte den Beweis, dass jeder Satz gut geordnet werden kann , ein Ergebnis, das Georg Cantor nicht hatte erreichen können. Um den Beweis zu erbringen, führte Zermelo das Auswahlaxiom ein , das unter Mathematikern und den Pionieren der Mengenlehre hitzige Debatten und Forschungen auslöste. Die unmittelbare Kritik an der Methode veranlasste Zermelo, eine zweite Darstellung seines Ergebnisses zu veröffentlichen, in der er direkt auf die Kritik an seinem Beweis einging. Dieses Papier führte zur allgemeinen Akzeptanz des Auswahlaxioms in der Mathematikergemeinde.

Die Skepsis gegenüber dem Auswahlaxiom wurde durch kürzlich entdeckte Paradoxien in der naiven Mengenlehre verstärkt . Cesare Burali-Forti stellte als erster ein Paradoxon fest: Das Burali-Forti-Paradoxon zeigt, dass die Sammlung aller Ordnungszahlen keine Menge bilden kann. Sehr bald danach, Bertrand Russell entdeckte Russells Paradox 1901 und Jules Richard entdeckte Richards Paradoxon .

Zermelo lieferte den ersten Satz von Axiomen für die Mengenlehre. Diese Axiome werden zusammen mit dem zusätzlichen Ersetzungsaxiom von Abraham Fraenkel jetzt als Zermelo-Fraenkel-Mengentheorie (ZF) bezeichnet. Zermelos Axiome enthalten das Prinzip der Größenbeschränkung , um Russells Paradox zu vermeiden.

1910 erschien der erste Band der Principia Mathematica von Russell und Alfred North Whitehead . Diese bahnbrechende Arbeit entwickelte die Theorie der Funktionen und der Kardinalität in einem vollständig formalen Rahmen der Typentheorie , den Russell und Whitehead entwickelten, um die Paradoxien zu vermeiden. Principia Mathematica gilt als eines der einflussreichsten Werke des 20. Jahrhunderts, obwohl sich der Rahmen der Typentheorie als grundlegende Theorie der Mathematik nicht durchgesetzt hat.

Fraenkel bewies, dass das Auswahlaxiom nicht aus den Axiomen der Zermeloschen Mengenlehre mit Urelementen bewiesen werden kann . Spätere Arbeiten von Paul Cohen zeigten, dass die Zugabe von Urelementen nicht erforderlich ist und das Auswahlaxiom in ZF nicht beweisbar ist. Cohens Beweis entwickelte die Methode des Erzwingens , die heute ein wichtiges Werkzeug zur Feststellung von Unabhängigkeitsergebnissen in der Mengenlehre ist.

Symbolische Logik

Leopold Löwenheim und Thoralf Skolem haben den Löwenheim-Skolem-Satz erhalten , der besagt, dass die Logik erster Ordnung die Kardinalitäten unendlicher Strukturen nicht kontrollieren kann . Skolem erkannte, dass dieser Satz für Formalisierungen erster Ordnung der Mengenlehre gelten würde und dass er impliziert, dass jede solche Formalisierung ein abzählbares Modell hat . Diese widersprüchliche Tatsache wurde als Skolems Paradox bekannt .

Kurt Gödel hat in seiner Doktorarbeit den Vollständigkeitssatz bewiesen , der eine Entsprechung zwischen Syntax und Semantik in der Logik erster Ordnung herstellt. Gödel benutzte den Vollständigkeitssatz, um den Kompaktheitssatz zu beweisen und damit die Endlichkeit der logischen Konsequenz erster Ordnung zu demonstrieren . Diese Ergebnisse trugen dazu bei, die Logik erster Ordnung als die vorherrschende Logik zu etablieren, die von Mathematikern verwendet wird.

1931 veröffentlichte Gödel On Formally Undecidable Propositions of Principia Mathematica and Related Systems , das die Unvollständigkeit (in einer anderen Bedeutung des Wortes) aller hinreichend starken, effektiven Theorien erster Ordnung bewies. Dieses Ergebnis, bekannt als Gödels Unvollständigkeitstheorem , setzt den axiomatischen Grundlagen der Mathematik starke Grenzen und versetzt Hilberts Programm einen starken Schlag. Es zeigte die Unmöglichkeit, einen Konsistenzbeweis der Arithmetik innerhalb einer formalen Theorie der Arithmetik zu liefern. Hilbert erkannte jedoch die Bedeutung des Unvollständigkeitssatzes für einige Zeit nicht an.

Der Satz von Gödel zeigt, dass ein Konsistenzbeweis eines hinreichend starken effektiven Axiomensystems weder im System selbst, wenn das System konsistent ist, noch in einem schwächeren System durchgeführt werden kann. Dies lässt die Möglichkeit von Konsistenznachweisen offen, die innerhalb des von ihnen betrachteten Systems nicht formalisiert werden können. Gentzen bewies die Konsistenz der Arithmetik mit einem finitistischen System zusammen mit einem Prinzip der transfiniten Induktion . Gentzens Ergebnis führte die Ideen der Schnitteliminierung und beweistheoretische Ordinalzahlen ein , die zu Schlüsselwerkzeugen der Beweistheorie wurden. Gödel gab einen anderen Konsistenzbeweis, der die Konsistenz der klassischen Arithmetik auf die der intuitiven Arithmetik in höheren Typen reduziert.

Das erste Lehrbuch über symbolische Logik für den Laien wurde 1896 von Lewis Carroll, dem Autor von Alice im Wunderland, geschrieben.

Anfänge der anderen Zweige

Alfred Tarski entwickelte die Grundlagen der Modelltheorie .

Ab 1935 arbeitete eine Gruppe von prominenten Mathematiker unter dem Pseudonym Nicolas Bourbaki zu veröffentlichen Éléments de mathématique , eine Reihe von enzyklopädischer Mathematik Texten. Diese in einem strengen und axiomatischen Stil verfassten Texte legten Wert auf eine rigorose Präsentation und mengentheoretische Grundlagen. Die von diesen Texten geprägte Terminologie, wie die Wörter Bijection , Injektion und Surjection , und die mengentheoretischen Grundlagen, die die Texte verwendeten, wurden in der gesamten Mathematik weit verbreitet.

Das Studium der Berechenbarkeit wurde als Rekursionstheorie oder Berechenbarkeitstheorie bekannt , da frühe Formalisierungen von Gödel und Kleene auf rekursiven Definitionen von Funktionen beruhten. Als diese Definitionen als äquivalent zu Turings Formalisierung mit Turing-Maschinen gezeigt wurden , wurde klar, dass ein neues Konzept – die berechenbare Funktion – entdeckt worden war, und dass diese Definition robust genug war, um zahlreiche unabhängige Charakterisierungen zuzulassen. In seiner Arbeit über die Unvollständigkeitssätze von 1931 fehlte Gödel ein rigoroses Konzept eines effektiven formalen Systems; er erkannte sofort, dass die neuen Definitionen der Berechenbarkeit für diesen Zweck verwendet werden könnten, was es ihm ermöglichte, die Unvollständigkeitssätze allgemein zu formulieren, die nur in der Originalarbeit impliziert werden konnten.

Zahlreiche Ergebnisse der Rekursionstheorie wurden in den 1940er Jahren von Stephen Cole Kleene und Emil Leon Post erzielt . Kleene führte die von Turing vorweggenommenen Konzepte der relativen Berechenbarkeit und die arithmetische Hierarchie ein . Kleene verallgemeinerte später die Rekursionstheorie auf Funktionale höherer Ordnung. Kleene und Georg Kreisel studierten formale Versionen der intuitionistischen Mathematik, insbesondere im Kontext der Beweistheorie.

Formale logische Systeme

Im Kern befasst sich die mathematische Logik mit mathematischen Konzepten, die durch formale logische Systeme ausgedrückt werden . Diesen Systemen ist, obwohl sie sich in vielen Details unterscheiden, die gemeinsame Eigenschaft gemeinsam, nur Ausdrücke in einer festen formalen Sprache zu berücksichtigen. Die Systeme der Aussagenlogik und der Logik erster Ordnung werden heute wegen ihrer Anwendbarkeit auf die Grundlagen der Mathematik und wegen ihrer wünschenswerten beweistheoretischen Eigenschaften am meisten untersucht . Stärkere klassische Logiken wie die Logik zweiter Ordnung oder die Infinitärlogik werden ebenso untersucht wie nichtklassische Logiken wie die intuitionistische Logik .

Logik erster Ordnung

Die Logik erster Ordnung ist ein besonderes formales Logiksystem . Seine Syntax beinhaltet nur endliche Ausdrücke als wohlgeformte Formeln , während seine Semantik durch die Beschränkung aller Quantoren auf einen festen Diskursbereich gekennzeichnet ist .

Frühe Ergebnisse der formalen Logik begründeten Grenzen der Logik erster Ordnung. Der Satz von Löwenheim-Skolem (1919) zeigte, dass, wenn eine Menge von Sätzen in einer abzählbaren Sprache erster Ordnung ein unendliches Modell hat, sie mindestens ein Modell jeder unendlichen Kardinalität hat. Dies zeigt, dass es für eine Menge von Axiomen erster Ordnung unmöglich ist, die natürlichen Zahlen, die reellen Zahlen oder irgendeine andere unendliche Struktur bis auf Isomorphie zu charakterisieren . Da das Ziel der frühen Grundlagenstudien darin bestand, axiomatische Theorien für alle Teile der Mathematik zu entwickeln, war diese Einschränkung besonders stark.

Gödels Vollständigkeitssatz stellte die Äquivalenz zwischen semantischen und syntaktischen Definitionen der logischen Konsequenz in der Logik erster Ordnung her. Es zeigt, dass, wenn ein bestimmter Satz in jedem Modell wahr ist, das eine bestimmte Menge von Axiomen erfüllt, es eine endliche Deduktion des Satzes aus den Axiomen geben muss. Der Kompaktheitssatz tauchte zuerst als Lemma in Gödels Beweis des Vollständigkeitssatzes auf, und es dauerte viele Jahre, bis Logiker seine Bedeutung erkannten und begannen, ihn routinemäßig anzuwenden. Es besagt, dass eine Menge von Sätzen genau dann ein Modell hat, wenn jede endliche Teilmenge ein Modell hat, oder anders ausgedrückt, dass eine inkonsistente Menge von Formeln eine endliche inkonsistente Teilmenge haben muss. Die Vollständigkeits- und Kompaktheitssätze ermöglichen eine ausgeklügelte Analyse der logischen Konsequenz in der Logik erster Ordnung und die Entwicklung der Modelltheorie und sind ein wesentlicher Grund für die Bedeutung der Logik erster Ordnung in der Mathematik.

Die Unvollständigkeitssätze von Gödel legen zusätzliche Grenzen für Axiomatisierungen erster Ordnung fest. Der erste Unvollständigkeitssatz besagt, dass für jedes konsistente, effektiv gegebene (unten definierte) logische System, das in der Lage ist, Arithmetik zu interpretieren, eine Aussage existiert, die wahr ist (in dem Sinne, dass sie für die natürlichen Zahlen gilt), aber innerhalb dieser logischen nicht beweisbar ist (und die in einigen nicht standardmäßigen Modellen der Arithmetik, die mit dem logischen System vereinbar sein können, tatsächlich versagen können). Zum Beispiel gilt in jedem logischen System, das die Peano-Axiome ausdrücken kann , der Gödel-Satz für die natürlichen Zahlen, kann aber nicht bewiesen werden.

Hier wird ein logisches System als effektiv gegeben bezeichnet, wenn es möglich ist, bei gegebener Formel in der Sprache des Systems zu entscheiden, ob die Formel ein Axiom ist, und eine, die die Peano-Axiome ausdrücken kann, heißt "ausreichend stark". Bei Anwendung auf die Logik erster Ordnung impliziert der erste Unvollständigkeitssatz, dass jede hinreichend starke, konsistente, effektive Theorie erster Ordnung Modelle hat, die nicht elementar äquivalent sind , eine stärkere Einschränkung als die durch den Löwenheim-Skolem-Satz aufgestellte. Der zweite Unvollständigkeitssatz besagt, dass kein ausreichend starkes, konsistentes, effektives Axiomensystem für die Arithmetik seine eigene Konsistenz beweisen kann, die dahingehend interpretiert wurde, dass Hilberts Programm nicht erreicht werden kann.

Andere klassische Logiken

Neben der Logik erster Ordnung werden viele Logiken studiert. Dazu gehören unendliche Logiken , die es ermöglichen, dass Formeln unendlich viele Informationen liefern, und Logiken höherer Ordnung , die einen Teil der Mengenlehre direkt in ihre Semantik einbeziehen.

Die am besten untersuchte Infinitärlogik ist . In dieser Logik dürfen Quantoren nur in endliche Tiefen verschachtelt werden, wie in der Logik erster Ordnung, aber Formeln können endliche oder abzählbar unendliche Konjunktionen und Disjunktionen enthalten. So kann man zum Beispiel sagen, dass ein Objekt eine ganze Zahl ist, indem man eine Formel wie

Logiken höherer Ordnung ermöglichen die Quantifizierung nicht nur von Elementen des Diskursbereichs , sondern von Teilmengen des Diskursbereichs, Mengen solcher Teilmengen und anderer Objekte höherer Art. Die Semantik ist so definiert, dass die Quantifizierer, anstatt einen separaten Bereich für jeden Quantifizierer höheren Typs zu haben, über alle Objekte des entsprechenden Typs reichen. Die vor der Entwicklung der Logik erster Ordnung untersuchten Logiken, beispielsweise die Logik von Frege, hatten ähnliche mengentheoretische Aspekte. Obwohl Logiken höherer Ordnung ausdrucksstärker sind und vollständige Axiomatisierungen von Strukturen wie den natürlichen Zahlen ermöglichen, erfüllen sie nicht die Analoga der Vollständigkeits- und Kompaktheitssätze der Logik erster Ordnung und sind daher für beweistheoretische Analysen weniger zugänglich.

Eine andere Art von Logik sind Festpunkt - Logik s,deneninduktive Definitionen, wie man schreibt fürprimitive rekursive Funktionen.

Man kann formal eine Erweiterung der Logik erster Ordnung definieren – ein Begriff, der alle Logiken in diesem Abschnitt umfasst, weil sie sich in gewisser grundlegender Weise wie die Logik erster Ordnung verhalten, aber nicht alle Logiken im Allgemeinen umfasst, z. Modal- oder Fuzzy-Logik .

Der Satz von Lindström impliziert, dass die einzige Erweiterung der Logik erster Ordnung, die sowohl den Kompaktheitssatz als auch den abwärts gerichteten Satz von Löwenheim-Skolem erfüllt , die Logik erster Ordnung ist.

Nichtklassische und modale Logik

Modale Logiken umfassen zusätzliche modale Operatoren, wie beispielsweise einen Operator, der angibt, dass eine bestimmte Formel nicht nur wahr, sondern notwendigerweise wahr ist. Obwohl Modallogik nicht oft zur Axiomatisierung der Mathematik verwendet wird, wurde sie verwendet, um die Eigenschaften der Beweisbarkeit erster Ordnung und des mengentheoretischen Antriebes zu untersuchen.

Intuitionistische Logik wurde von Heyting entwickelt, um Brouwers Programm des Intuitionismus zu studieren, in dem Brouwer selbst eine Formalisierung vermied. Intuitionistische Logik schließt ausdrücklich nicht das Gesetz der ausgeschlossenen Mitte ein , das besagt, dass jeder Satz entweder wahr ist oder seine Negation wahr ist. Kleenes Arbeit mit der Beweistheorie der intuitionistischen Logik hat gezeigt, dass aus intuitionistischen Beweisen konstruktive Informationen gewonnen werden können. Zum Beispiel ist jede beweisbar totale Funktion in der intuitionistischen Arithmetik berechenbar ; dies trifft in klassischen Theorien der Arithmetik wie der Peano-Arithmetik nicht zu .

Algebraische Logik

Die algebraische Logik verwendet die Methoden der abstrakten Algebra , um die Semantik der formalen Logik zu studieren. Ein grundlegendes Beispiel ist die Verwendung von Booleschen Algebren zur Darstellung von Wahrheitswerten in der klassischen Aussagenlogik und die Verwendung von Heyting-Algebren zur Darstellung von Wahrheitswerten in der intuitionistischen Aussagenlogik. Stärkere Logiken, wie Logik erster Ordnung und Logik höherer Ordnung, werden unter Verwendung komplizierterer algebraischer Strukturen wie zylindrischer Algebren untersucht .

Mengenlehre

Mengenlehre ist das Studium von Mengen , die abstrakte Sammlungen von Objekten sind. Viele der grundlegenden Begriffe wie Ordinal- und Kardinalzahlen wurden von Cantor informell entwickelt, bevor formale Axiomatisierungen der Mengenlehre entwickelt wurden. Die erste solche Axiomatisierung durch Zermelo wurde leicht erweitert zur Zermelo-Fraenkel-Mengentheorie (ZF), die heute die am weitesten verbreitete Grundlagentheorie für die Mathematik ist.

Andere Formalisierungen der Mengenlehre wurden vorgeschlagen, darunter die von Neumann-Bernays-Gödel-Mengentheorie (NBG), die Morse-Kelley-Mengentheorie (MK) und New Foundations (NF). Von diesen beschreiben ZF, NBG und MK eine kumulative Hierarchie von Mengen ähnlich . New Foundations verfolgt einen anderen Ansatz; es erlaubt Objekte wie die Menge aller Mengen auf Kosten von Einschränkungen ihrer Mengen-Existenz-Axiome. Das System der Kripke-Platek-Mengentheorie ist eng mit der generalisierten Rekursionstheorie verwandt.

Zwei berühmte Aussagen in der Mengenlehre sind das Auswahlaxiom und die Kontinuumshypothese . Das zuerst von Zermelo aufgestellte Auswahlaxiom wurde von Fraenkel unabhängig von ZF bewiesen, ist aber von Mathematikern weithin akzeptiert worden. Es besagt, dass es bei einer Sammlung von nichtleeren Mengen eine einzelne Menge C gibt , die genau ein Element aus jeder Menge in der Sammlung enthält. Die Menge C soll ein Element aus jeder Menge in der Sammlung "wählen". Während die Möglichkeit, eine solche Wahl zu treffen, von einigen als offensichtlich angesehen wird, da jede Menge in der Sammlung nicht leer ist, macht das Fehlen einer allgemeinen, konkreten Regel, nach der die Wahl getroffen werden kann, das Axiom nicht konstruktiv. Stefan Banach und Alfred Tarski zeigten, dass das Axiom der Wahl verwendet werden kann, um eine feste Kugel in eine endliche Anzahl von Teilen zu zerlegen, die dann ohne Skalierung neu angeordnet werden können, um zwei feste Kugeln der ursprünglichen Größe zu erhalten. Dieses als Banach-Tarski-Paradox bekannte Theorem ist eines von vielen kontraintuitiven Ergebnissen des Auswahlaxioms.

Die Kontinuumshypothese, zuerst von Cantor als Vermutung vorgeschlagen, wurde 1900 von David Hilbert als eines seiner 23 Probleme aufgeführt. Gödel zeigte, dass die Kontinuumshypothese nicht von den Axiomen der Zermelo-Fraenkel-Mengentheorie (mit oder ohne Wahl), indem sie das konstruierbare Universum der Mengenlehre entwickeln, in dem die Kontinuumshypothese gelten muss. 1963 zeigte Paul Cohen , dass die Kontinuumshypothese nicht aus den Axiomen der Zermelo-Fraenkel-Mengentheorie bewiesen werden kann. Dieses Unabhängigkeitsergebnis hat Hilberts Frage jedoch nicht vollständig geklärt, da es möglich ist, dass neue Axiome für die Mengenlehre die Hypothese auflösen könnten. Jüngste Arbeiten in dieser Richtung wurden von W. Hugh Woodin durchgeführt , obwohl ihre Bedeutung noch nicht klar ist.

Die zeitgenössische mengentheoretische Forschung umfasst das Studium großer Kardinäle und der Determiniertheit . Große Kardinäle sind Kardinalzahlen mit besonderen Eigenschaften, die so stark sind, dass die Existenz solcher Kardinäle im ZFC nicht bewiesen werden kann. Die Existenz des kleinsten, typischerweise untersuchten großen Kardinals, eines unzugänglichen Kardinals , impliziert bereits die Konsistenz von ZFC. Trotz der Tatsache, dass große Kardinäle eine extrem hohe Kardinalität haben , hat ihre Existenz viele Auswirkungen auf die Struktur der realen Linie. Bestimmtheit bezieht sich auf die mögliche Existenz von Gewinnstrategien für bestimmte Spiele mit zwei Spielern (die Spiele werden als bestimmt bezeichnet ). Die Existenz dieser Strategien impliziert strukturelle Eigenschaften der realen Linie und anderer polnischer Räume .

Modelltheorie

Die Modelltheorie untersucht die Modelle verschiedener formaler Theorien. Hier ist eine Theorie ein Satz von Formeln in einer bestimmten formalen Logik und Signatur , während ein Modell eine Struktur ist, die eine konkrete Interpretation der Theorie gibt. Die Modelltheorie ist eng mit der universellen Algebra und der algebraischen Geometrie verwandt , obwohl sich die Methoden der Modelltheorie mehr auf logische Überlegungen als auf diese Gebiete konzentrieren.

Die Menge aller Modelle einer bestimmten Theorie wird Elementarklasse genannt ; Die klassische Modelltheorie versucht, die Eigenschaften von Modellen in einer bestimmten Elementarklasse zu bestimmen oder zu bestimmen, ob bestimmte Klassen von Strukturen Elementarklassen bilden.

Mit der Methode der Quantoreneliminierung kann gezeigt werden, dass definierbare Mengen in bestimmten Theorien nicht zu kompliziert sein können. Tarski etablierte die Quantoreneliminierung für reell abgeschlossene Körper, ein Ergebnis, das auch zeigt, dass die Theorie des Körpers der reellen Zahlen entscheidbar ist . Er bemerkte auch, dass seine Methoden gleichermaßen auf algebraisch abgeschlossene Körper beliebiger Charakteristik anwendbar seien. Ein sich daraus entwickelndes modernes Teilgebiet beschäftigt sich mit o-minimalen Strukturen .

Der von Michael D. Morley bewiesene Kategorisierungssatz von Morley besagt, dass, wenn eine Theorie erster Ordnung in einer abzählbaren Sprache in einer überzähligen Kardinalität kategorial ist, dh alle Modelle dieser Kardinalität isomorph sind, sie in allen überzählbaren Kardinalitäten kategorisch ist.

Eine triviale Konsequenz der Kontinuumshypothese ist, dass eine vollständige Theorie mit weniger als dem Kontinuum viele nichtisomorphe abzählbare Modelle nur abzählbar viele haben kann. Vaughts Vermutung , benannt nach Robert Lawson Vaught , besagt, dass dies sogar unabhängig von der Kontinuumshypothese zutrifft. Viele Spezialfälle dieser Vermutung sind nachgewiesen worden.

Rekursionstheorie

Die Rekursionstheorie , auch Berechenbarkeitstheorie genannt , untersucht die Eigenschaften berechenbarer Funktionen und die Turing-Grade , die die unberechenbaren Funktionen in Mengen aufteilen, die den gleichen Grad an Unberechenbarkeit haben. Die Rekursionstheorie umfasst auch das Studium der verallgemeinerten Berechenbarkeit und Definierbarkeit. Die Rekursionstheorie entstandin den 1930er Jahrenaus den Arbeiten von Rózsa Péter , Alonzo Church und Alan Turing , diein den 1940er Jahrenvon Kleene und Post stark erweitert wurden.

Die klassische Rekursionstheorie konzentriert sich auf die Berechenbarkeit von Funktionen von den natürlichen Zahlen zu den natürlichen Zahlen. Die grundlegenden Ergebnisse bilden eine robuste, kanonische Klasse berechenbarer Funktionen mit zahlreichen unabhängigen, äquivalenten Charakterisierungen unter Verwendung von Turing-Maschinen , λ-Kalkül und anderen Systemen. Fortgeschrittenere Ergebnisse beziehen sich auf die Struktur des Turing Grades und das Gitter von rekursiv aufzählbaren .

Die generalisierte Rekursionstheorie erweitert die Ideen der Rekursionstheorie auf Berechnungen, die nicht mehr unbedingt endlich sind. Es umfasst das Studium der Berechenbarkeit in höheren Typen sowie Bereiche wie die hyperarithmetische Theorie und die α-Rekursionstheorie .

Die zeitgenössische Forschung in der Rekursionstheorie umfasst das Studium von Anwendungen wie algorithmischer Zufälligkeit , berechenbarer Modelltheorie und umgekehrter Mathematik sowie neue Ergebnisse in der reinen Rekursionstheorie.

Algorithmisch unlösbare Probleme

Ein wichtiges Teilgebiet der Rekursionstheorie beschäftigt sich mit der algorithmischen Unlösbarkeit; Ein Entscheidungsproblem oder Funktionsproblem ist algorithmisch unlösbar, wenn es keinen möglichen berechenbaren Algorithmus gibt, der die richtige Antwort für alle zulässigen Eingaben des Problems liefert. Die ersten Ergebnisse zur Unlösbarkeit, unabhängig von Church und Turing im Jahr 1936, zeigten, dass das Entscheidungsproblem algorithmisch unlösbar ist. Turing bewies dies, indem er die Unlösbarkeit des Halteproblems feststellte , ein Ergebnis mit weitreichenden Auswirkungen sowohl auf die Rekursionstheorie als auch auf die Informatik.

Es gibt viele bekannte Beispiele für unentscheidbare Probleme aus der gewöhnlichen Mathematik. Das Wortproblem für Gruppen wurde 1955 von Pjotr ​​Novikov und 1959 unabhängig von W. Boone als algorithmisch unlösbar bewiesen . Das 1962 von Tibor Radó entwickelte beschäftigte Biberproblem ist ein weiteres bekanntes Beispiel.

Hilberts zehntes Problem verlangte nach einem Algorithmus, um zu bestimmen, ob eine multivariate Polynomgleichung mit ganzzahligen Koeffizienten eine Lösung in den ganzen Zahlen hat. Teilweise Fortschritte erzielten Julia Robinson , Martin Davis und Hilary Putnam . Die algorithmische Unlösbarkeit des Problems wurde 1970 von Yuri Matiyasevich bewiesen .

Beweistheorie und konstruktive Mathematik

Beweistheorie ist das Studium formaler Beweise in verschiedenen logischen Deduktionssystemen. Diese Beweise werden als formale mathematische Objekte dargestellt, die ihre Analyse durch mathematische Techniken erleichtern. Mehrere Deduktionssysteme werden allgemein in Betracht gezogen, darunter Deduktionssysteme im Hilbert-Stil , Systeme der natürlichen Deduktion und dievon Gentzen entwickelte Folgerechnung .

Das Studium der konstruktiven Mathematik im Kontext der mathematischen Logik umfasst das Studium von Systemen der nichtklassischen Logik wie der intuitionistischen Logik sowie das Studium prädikativer Systeme. Ein früher Befürworter des Prädikativismus war Hermann Weyl , der zeigte, dass es möglich ist, einen großen Teil der realen Analyse nur mit prädikativen Methoden zu entwickeln.

Da Beweise vollständig endlich sind, die Wahrheit in einer Struktur jedoch nicht, ist es in der konstruktiven Mathematik üblich, die Beweisbarkeit zu betonen. Von besonderem Interesse ist der Zusammenhang zwischen der Beweisbarkeit in klassischen (oder nicht-konstruktiven) Systemen und der Beweisbarkeit in intuitionistischen (bzw. konstruktiven) Systemen. Ergebnisse wie die Gödel-Gentzen-Negativübersetzung zeigen, dass es möglich ist, klassische Logik in intuitionistische Logik einzubetten (oder zu übersetzen ), wodurch einige Eigenschaften über intuitionistische Beweise zurück auf klassische Beweise übertragen werden können.

Jüngste Entwicklungen in der Beweistheorie umfassen das Studium des Proof Mining von Ulrich Kohlenbach und das Studium der beweistheoretischen Ordinalzahlen von Michael Rathjen .

Anwendungen

"Mathematische Logik wurde nicht nur erfolgreich auf die Mathematik und ihre Grundlagen angewendet ( G. Frege , B. Russell , D. Hilbert , P. Bernays , H. Scholz , R. Carnap , S. Lesniewski , T. Skolem ), sondern auch zur Physik (R. Carnap, A. Dittrich, B. Russell, CE Shannon , AN Whitehead , H. Reichenbach , P. Fevrier), zur Biologie ( JH Woodger , A. Tarski ), zur Psychologie ( FB Fitch , CG Hempel ) , zu Recht und Moral ( K. Menger , U. Klug, P. Oppenheim), zur Ökonomie ( J. Neumann , O. Morgenstern ), zu praktischen Fragen ( EC Berkeley , E. Stamm) und sogar zur Metaphysik (J. [Jan] Salamucha, H. Scholz, JM Bochenski ) Seine Anwendungen auf die Geschichte der Logik haben sich als äußerst fruchtbar erwiesen ( J. Lukasiewicz , H. Scholz, B. Mates , A. Becker, E. Moody , J. Salamucha, K . Dürr, Z. Jordan, P. Boehner , JM Bochenski, S. [Stanislaw] T. Schayer, D. Ingalls )." "Auch an die Theologie wurden Bewerbungen gestellt (F. Drewnowski, J. Salamucha, I. Thomas)."

Verbindungen zur Informatik

Das Studium der Berechenbarkeitstheorie in der Informatik ist eng mit dem Studium der Berechenbarkeit in der mathematischen Logik verbunden. Es gibt jedoch einen Unterschied in der Betonung. Informatiker konzentrieren sich oft auf konkrete Programmiersprachen und machbare Berechenbarkeit , während sich Forscher der mathematischen Logik oft auf Berechenbarkeit als theoretisches Konzept und auf Nicht-Berechenbarkeit konzentrieren.

Die Theorie der Semantik von Programmiersprachen ist mit der Modelltheorie verwandt , ebenso wie die Programmverifikation (insbesondere Modellprüfung ). Die Curry-Howard-Korrespondenz zwischen Beweisen und Programmen bezieht sich auf die Beweistheorie , insbesondere auf die intuitive Logik . Formale Kalküle wie der Lambda-Kalkül und die kombinatorische Logik werden heute als idealisierte Programmiersprachen untersucht .

Die Informatik trägt auch zur Mathematik bei, indem sie Techniken entwickelt, die das automatische Prüfen oder sogar das Finden von Beweisen ermöglichen, wie zum Beispiel automatisiertes Theorembeweisen und logisches Programmieren .

Die deskriptive Komplexitätstheorie verbindet Logik mit rechnerischer Komplexität . Das erste signifikante Ergebnis auf diesem Gebiet, das Theorem von Fagin (1974), stellte fest, dass NP genau die Menge von Sprachen ist, die durch Sätze der existenziellen Logik zweiter Ordnung ausdrückbar sind .

Grundlagen der Mathematik

Im 19. Jahrhundert wurden Mathematiker auf logische Lücken und Widersprüche in ihrem Fachgebiet aufmerksam. Es zeigte sich, dass Euklids Axiome für die Geometrie, die seit Jahrhunderten als Beispiel für die axiomatische Methode gelehrt wurden, unvollständig waren. Die Verwendung von Infinitesimalen und die eigentliche Definition von Funktion kamen in der Analyse in Frage, als pathologische Beispiele wie die nirgendwo differenzierbare stetige Funktion von Weierstrass entdeckt wurden.

Auch Cantors Studie über willkürliche unendliche Mengen stieß auf Kritik. Leopold Kronecker sagte bekanntlich "Gott hat die ganzen Zahlen gemacht; alles andere ist das Werk des Menschen" und befürwortet eine Rückkehr zum Studium endlicher, konkreter Objekte in der Mathematik. Obwohl Kroneckers Argument im 20. Jahrhundert von Konstruktivisten vorgetragen wurde, lehnte die gesamte mathematische Gemeinschaft sie ab. David Hilbert sprach sich für das Studium des Unendlichen aus und sagte: "Niemand wird uns aus dem Paradies vertreiben, das Cantor geschaffen hat."

Mathematiker begannen nach Axiomensystemen zu suchen, mit denen sich große Teile der Mathematik formalisieren ließen. Neben der Beseitigung von Mehrdeutigkeiten aus bisher naiven Begriffen wie Funktion erhoffte man sich durch diese Axiomatisierung auch Konsistenzbeweise. Im 19. Jahrhundert bestand die Hauptmethode zum Beweis der Konsistenz einer Menge von Axiomen darin, ein Modell dafür bereitzustellen. So kann zum Beispiel die nichteuklidische Geometrie konsistent bewiesen werden, indem man Punkt als Punkt auf einer festen Kugel und Linie als Großkreis auf der Kugel definiert. Die resultierende Struktur, ein Modell der elliptischen Geometrie , erfüllt die Axiome der ebenen Geometrie mit Ausnahme des Parallelpostulats.

Mit der Entwicklung der formalen Logik stellte Hilbert die Frage, ob es möglich wäre, die Konsistenz eines Axiomensystems zu beweisen, indem man die Struktur möglicher Beweise im System analysiert und durch diese Analyse zeigt, dass es unmöglich ist, einen Widerspruch zu beweisen. Diese Idee führte zum Studium der Beweistheorie . Darüber hinaus schlug Hilbert vor, dass die Analyse ganz konkret sein sollte, indem er den Begriff finitär verwendet, um sich auf die Methoden zu beziehen, die er zulassen würde, aber nicht genau zu definieren. Dieses Projekt, das als Hilberts Programm bekannt ist , wurde stark von Gödels Unvollständigkeitssätzen beeinflusst, die zeigen, dass die Konsistenz formaler Theorien der Arithmetik nicht mit in diesen Theorien formalisierbaren Methoden hergestellt werden kann. Gentzen zeigte, dass es möglich ist, einen Beweis für die Konsistenz der Arithmetik in einem mit Axiomen der transfiniten Induktion erweiterten endlichen System zu führen , und die von ihm dafür entwickelten Techniken waren wegweisend für die Beweistheorie.

Ein zweiter Faden in der Geschichte der Grundlagen der Mathematik betrifft die nichtklassische Logik und die konstruktive Mathematik . Das Studium der konstruktiven Mathematik umfasst viele verschiedene Programme mit unterschiedlichen Definitionen von konstruktiv . Am entgegenkommendsten werden Beweise in der ZF-Mengentheorie, die das Auswahlaxiom nicht verwenden, von vielen Mathematikern als konstruktiv bezeichnet. Begrenztere Versionen des Konstruktivismus beschränken sich auf natürliche Zahlen , zahlentheoretische Funktionen und Mengen natürlicher Zahlen (die verwendet werden können, um reelle Zahlen darzustellen, was das Studium der mathematischen Analyse erleichtert ). Eine gängige Idee ist, dass ein konkretes Mittel zur Berechnung der Werte der Funktion bekannt sein muss, bevor die Funktion selbst als existierend bezeichnet werden kann.

Luitzen Egbertus Jan Brouwer begründete Anfang des 20. Jahrhunderts den Intuitionismus als Teil der Philosophie der Mathematik . Diese anfangs schlecht verstandene Philosophie besagt, dass eine mathematische Aussage für einen Mathematiker nur dann wahr sein kann, wenn diese Person in der Lage sein muss, die Aussage zu erkennen, nicht nur ihre Wahrheit zu glauben, sondern auch den Grund für ihre Wahrheit zu verstehen. Eine Folge dieser Wahrheitsdefinition war die Ablehnung des Gesetzes der ausgeschlossenen Mitte , denn es gibt Aussagen, die nach Brouwer nicht als wahr geltend gemacht werden können, deren Negationen aber auch nicht als wahr geltend gemacht werden können. Brouwers Philosophie war einflussreich und die Ursache erbitterter Auseinandersetzungen unter prominenten Mathematikern. Später studierten Kleene und Kreisel formalisierte Versionen der intuitionistischen Logik (Brouwer lehnte die Formalisierung ab und präsentierte seine Arbeit in nicht formalisierter natürlicher Sprache). Mit dem Aufkommen der BHK-Interpretation und der Kripke-Modelle wurde der Intuitionismus leichter mit der klassischen Mathematik in Einklang zu bringen .

Siehe auch

Anmerkungen

Verweise

Bachelor-Texte

  • Walicki, Michał (2011). Einführung in die mathematische Logik . Singapur : World Scientific Publishing . ISBN 9789814343879.
  • Boolos, George ; Bürger, John; Jeffrey, Richard (2002). Berechenbarkeit und Logik (4. Aufl.). Cambridge University Press . ISBN 9780521007580.
  • Crossley, JN; Ash, CJ; Brickhill, CJ; Stillwell, JC; Williams, NH (1972). Was ist mathematische Logik? . London, Oxford, New York City: Oxford University Press . ISBN 9780198880875. Zbl  0251.02001 .
  • Enderton, Herbert (2001). Eine mathematische Einführung in die Logik (2. Aufl.). Boston MA: Akademische Presse . ISBN 978-0-12-238452-3.
  • Fischer, Alec (1982). Formale Zahlentheorie und Berechenbarkeit: Ein Arbeitsbuch . (geeignet als Erststudium zum Selbststudium) (1. Aufl.). Oxford University Press. ISBN 978-0-19-853188-3.
  • Hamilton, AG (1988). Logik für Mathematiker (2. Aufl.). Cambridge University Press. ISBN 978-0-521-36865-0.
  • Ebbinghaus, H.-D.; Flum, J.; Thomas, W. (1994). Mathematische Logik (2. Aufl.). New York City : Springer . ISBN 9780387942582.
  • Katz, Robert (1964). Axiomatische Analyse . Boston MA: DC Heath and Company .
  • Mendelson, Elliott (1997). Einführung in die mathematische Logik (4. Aufl.). London: Chapman & Halle . ISBN 978-0-412-80830-2.
  • Rautenberg, Wolfgang (2010). Eine kurze Einführung in die mathematische Logik (3. Aufl.). New York City : Springer . doi : 10.1007/978-1-4419-1221-3 . ISBN 9781441912206.
  • Schwichtenberg, Helmut (2003–2004). Mathematische Logik (PDF) . München : Mathematisches Institut der Universität München . Abgerufen 2016-02-24 .
  • Shawn Hedman, Ein erster Kurs in Logik: eine Einführung in Modelltheorie, Beweistheorie, Berechenbarkeit und Komplexität , Oxford University Press , 2004, ISBN  0-19-852981-3 . Behandelt Logiken in engem Zusammenhang mit Berechenbarkeitstheorie und Komplexitätstheorie
  • van Dalen, Dirk (2013). Logik und Struktur . Universitätsex. Berlin: Springer . doi : 10.1007/978-1-4471-4558-5 . ISBN 978-1-4471-4557-8.

Abschlusstexte

Forschungsarbeiten, Monographien, Texte und Umfragen

Klassische Aufsätze, Texte und Sammlungen

Bochenski, Jozef Maria, Hrsg. (1959). Eine Präzise der mathematischen Logik . Synthesebibliothek, Bd. 2, No. 1. Übersetzt von Otto Bird. Dordrecht : Springer . doi : 10.1007/978-94-017-0592-9 . ISBN 9789048183296.

  • Burali-Forti, Cesare (1897). Eine Frage zu transfiniten Zahlen .Nachgedruckt in van Heijenoort 1976 , S. 104–111

Kantor, Georg (1874). "Über eine Eigenschaft des Inbegriffes aller reellen algebraischen Zahlen" (PDF) . Zeitschrift für die Reine und Angewandte Mathematik . 1874 (77): 258–262. doi : 10.1515/crll.1874.77.258 . S2CID  199545885 . Carroll, Lewis (1896). Symbolische Logik . Nachdrucke des Kessinger-Erbes. ISBN 9781163444955.

Soare, Robert Irving (22. Dezember 2011). "Berechenbarkeitstheorie und Anwendungen: Die Kunst der klassischen Berechenbarkeit" (PDF) . Fakultät für Mathematik . Universität von Chicago . Abgerufen am 23. August 2017 . Schweinekopf, Richard (1498). Calculationes Suiseth Anglici (in Litauisch). Papie: Per Franciscum Gyrardengum.

Externe Links