Geschichte der künstlichen Intelligenz - History of artificial intelligence

Die Geschichte der Künstlichen Intelligenz ( KI ) begann in der Antike mit Mythen, Geschichten und Gerüchten über künstliche Wesen, die von Meistern mit Intelligenz oder Bewusstsein ausgestattet wurden. Die Saat der modernen KI wurde von klassischen Philosophen gesät, die versuchten, den Prozess des menschlichen Denkens als mechanische Manipulation von Symbolen zu beschreiben. Diese Arbeit gipfelte in der Erfindung des programmierbaren Digitalcomputers in den 1940er Jahren, einer Maschine, die auf dem abstrakten Wesen mathematischer Argumentation basiert. Dieses Gerät und die Ideen dahinter inspirierten eine Handvoll Wissenschaftler, ernsthaft über die Möglichkeit des Baus eines elektronischen Gehirns zu diskutieren.

Das Feld der KI- Forschung wurde im Sommer 1956 bei einem Workshop auf dem Campus des Dartmouth College gegründet. Die Teilnehmer wurden jahrzehntelang führend in der KI-Forschung. Viele von ihnen sagten voraus, dass eine so intelligente Maschine wie ein Mensch in nicht mehr als einer Generation existieren würde, und sie erhielten Millionen von Dollar, um diese Vision zu verwirklichen.

Schließlich stellte sich heraus, dass kommerzielle Entwickler und Forscher die Schwierigkeit des Projekts grob unterschätzt hatten. 1973 stellten die US-amerikanische und britische Regierung als Reaktion auf die Kritik von James Lighthill und den anhaltenden Druck des Kongresses die Finanzierung ungerichteter Forschung zu künstlicher Intelligenz ein, und die folgenden schwierigen Jahre wurden später als „ KI-Winter “ bezeichnet. Sieben Jahre später inspirierte eine visionäre Initiative der japanischen Regierung Regierungen und Industrie dazu, KI Milliarden von Dollar zur Verfügung zu stellen, aber Ende der 80er Jahre wurden die Investoren desillusioniert und zogen die Finanzierung wieder zurück.

Investitionen und Interesse an AI boomten in den ersten Jahrzehnten des 21. Jahrhunderts , als maschinelles Lernen erfolgreich zu vielen Probleme in Wissenschaft und Industrie durch neue Methoden angewandt wurde, die Anwendung von leistungsfähiger Computer - Hardware, und der Sammlung von immensen Datenmengen.

Vorläufer

Mythische, fiktive und spekulative Vorläufer

Mythos und Legende

In der griechischen Mythologie war Talos ein aus Bronze gebauter Riese, der als Wächter für die Insel Kreta fungierte. Er würde Felsbrocken auf die Schiffe der Eindringlinge werfen und täglich 3 Runden um die Insel herum zurücklegen. Laut Pseudo-Apollodorus ' Bibliotheke fälschte Hephaistos Talos mit Hilfe eines Zyklopen und überreichte Minos den Automaten als Geschenk . Im Argonautica , Jason und die Argonauten besiegen ihn durch einen einzigen Stecker in der Nähe seines Fußes , das, einmal entfernt, die vitale erlaubten Jauche aus seinem Körper heraus zu fließen und ließ ihn leblos.

Pygmalion war ein legendärer König und Bildhauer der griechischen Mythologie, der in Ovids Metamorphosen bekannt ist . Im 10. Buch von Ovids Erzählgedicht wird Pygmalion von den Frauen angewidert, als er miterlebt, wie sich die Propoetides prostituieren. Trotzdem macht er Opfer im Tempel der Venus bittet die Göttin zu ihm zu bringen eine Frau wie eine Statue er carvexreThe frühesten schriftlichen Bericht über golem Herstellung in den Schriften gefunden Eleazar ben Juda von Worms circa 12-13 C. Im Mittelalter glaubte man, dass die Belebung eines Golems erreicht werden könnte, indem man ein Stück Papier mit einem beliebigen Gottesnamen darauf in den Mund der Tonfigur einführte. Im Gegensatz zu legendären Automaten wie Brazen Heads konnte ein Golem nicht sprechen.

Alchemistische Mittel der künstlichen Intelligenz

Darstellung eines Homunkulus aus Goethes Faust

In Of the Nature of Things , geschrieben von dem in der Schweiz geborenen Alchemisten Paracelsus , beschreibt er ein Verfahren, von dem er behauptet, dass es einen "künstlichen Menschen" fabrizieren kann. Indem man das "Sperma eines Mannes" in Pferdemist legt und es nach 40 Tagen mit dem "Arkanum des Menschenblutes" füttert, wird das Gebräu zu einem lebenden Säugling. Vordatierung Paracelsus war Dschābir ibn Hayyān ‚s Nehmen auf dem Homunkulus: Takwin In Faust, Der zweite Teil der Tragödie von Johann Wolfgang von Goethe , ein alchemistisch Homunculus hergestellt, für immer in dem Kolben zu leben bestimmt , in dem er gemacht wurde, bemüht zu sein in einen vollen menschlichen Körper hineingeboren. Beim Beginn dieser Transformation zerbricht jedoch die Flasche und der Homunkulus stirbt.

Moderne Belletristik

Im 19. Jahrhundert, Ideen über künstliche Männer und Denkmaschinen wurden in der Fiktion, wie in dem entwickelten Mary Shelley ‚s Frankenstein oder Karel Čapek ‘ s RUR (Rossums Universal Robots) , und die Spekulation, wie Samuel Butler ‚s" Darwin unter den Maschinen ," und in realen Instanzen, einschließlich Edgar Allan Poes " Maelzel's Chess Player ". KI ist in der Gegenwart zu einem festen Thema in der Science-Fiction geworden.

Automaten

Die programmierbaren Automaten von Al-Jazari (1206 CE)

Realistische humanoide Automaten wurden von Handwerkern jeder Zivilisation gebaut, darunter Yan Shi , Held von Alexandria , Al-Jazari , Pierre Jaquet-Droz und Wolfgang von Kempelen . Die ältesten bekannten Automaten waren die heiligen Statuen des alten Ägypten und Griechenlands . Die Gläubigen glaubten, dass Handwerker diese Figuren mit sehr realen Köpfen durchdrungen hatten, die zu Weisheit und Gefühl fähig waren - Hermes Trismegistos schrieb, dass "der Mensch in der Lage war, die wahre Natur der Götter zu entdecken, sie zu reproduzieren".

In der frühen Neuzeit wurde diesen legendären Automaten die magische Fähigkeit nachgesagt, ihnen gestellte Fragen zu beantworten. Der spätmittelalterliche Alchemist und Gelehrte Roger Bacon soll einen dreisten Kopf hergestellt haben , nachdem er eine Legende entwickelt hatte, ein Zauberer gewesen zu sein. Diese Legenden ähnelten dem nordischen Mythos des Kopfes von Mímir. Der Legende nach war Mímir für seinen Intellekt und seine Weisheit bekannt und wurde im Æsir-Vanir-Krieg enthauptet. Odin soll den Kopf mit Kräutern "einbalsamiert" und Beschwörungen darüber gesprochen haben, so dass Mímirs Kopf in der Lage blieb, Odin Weisheit zu sprechen. Odin hielt dann den Kopf in seiner Nähe, um Rat zu erhalten.

Formale Argumentation

Künstliche Intelligenz basiert auf der Annahme, dass der menschliche Denkprozess mechanisiert werden kann. Das Studium des mechanischen – oder „formalen“ – Denkens hat eine lange Geschichte. Chinesische , indische und griechische Philosophen entwickelten im ersten Jahrtausend v. Chr. strukturierte Methoden der formalen Deduktion. Ihre Ideen wurden im Laufe der Jahrhunderte von Philosophen wie Aristoteles (der eine formale Analyse des Syllogismus gab ), Euklid (dessen Elemente ein Modell des formalen Denkens waren), al-Khwārizmī (der Algebra entwickelte und dem „ Algorithmus “ seinen Namen gab) entwickelt. ) und europäische scholastische Philosophen wie William of Ockham und Duns Scotus .

Der spanische Philosoph Ramon Llull (1232–1315) entwickelte mehrere logische Maschinen , die sich der Wissensproduktion mit logischen Mitteln widmeten; Llull beschrieb seine Maschinen als mechanische Einheiten, die grundlegende und unbestreitbare Wahrheiten durch einfache logische Operationen kombinieren konnten, die von der Maschine durch mechanische Bedeutungen erzeugt wurden, um alles mögliche Wissen zu produzieren. Llulls Werk hatte großen Einfluss auf Gottfried Leibniz , der seine Ideen neu entwickelte.

Gottfried Leibniz , der spekulierte, dass die menschliche Vernunft auf mechanische Berechnungen reduziert werden könnte

Im 17. Jahrhundert erforschten Leibniz , Thomas Hobbes und René Descartes die Möglichkeit, dass alles rationale Denken so systematisch wie Algebra oder Geometrie gemacht werden könnte. Hobbes schrieb bekanntlich im Leviathan : "Vernunft ist nichts anderes als Abrechnung". Leibniz stellte sich eine universelle Argumentationssprache (seine charakteristischa universalis ) vor, die die Argumentation auf die Berechnung reduzierte, so dass "zwischen zwei Philosophen nicht mehr zu streiten wäre als zwischen zwei Buchhaltern. Denn es würde genügen, ihre Bleistifte in die Hand zu nehmen, runter". zu ihren Schiefertafeln und zu sagen (mit einem Freund als Zeugen, wenn sie wollten): Rechnen wir ." Diese Philosophen hatten damit begonnen, die Hypothese des physikalischen Symbolsystems zu formulieren , die zum Leitglauben der KI-Forschung werden sollte.

Im 20. Jahrhundert brachte das Studium der mathematischen Logik den wesentlichen Durchbruch, der künstliche Intelligenz plausibel erscheinen ließ. Die Fundamente waren Satz von Werken wie Boole ‚s Die Gesetze des Denkens und Frege ‘ s Begriffsschrift . Aufbauend auf Freges System präsentierten Russell und Whitehead 1913 in ihrem Meisterwerk, der Principia Mathematica, eine formale Behandlung der Grundlagen der Mathematik . Inspiriert von Russells Erfolg forderte David Hilbert die Mathematiker der 1920er und 30er Jahre auf, diese grundlegende Frage zu beantworten : "Können alle mathematischen Überlegungen formalisiert werden?" Seine Frage wurde von antwortete Gödel ‚s Unvollständigkeit Beweis , Turing ‘ s Maschine und Kirche ‚s Lambda - Kalkül .

US Army Foto des ENIAC an der Moore School of Electrical Engineering.

Ihre Antwort war in zweierlei Hinsicht überraschend. Erstens bewiesen sie, dass es tatsächlich Grenzen dessen gibt, was mathematische Logik leisten kann. Aber zweitens (und wichtiger für die KI) legten ihre Arbeiten nahe, dass innerhalb dieser Grenzen jede Form des mathematischen Denkens mechanisiert werden könnte. Die Church-Turing-These implizierte, dass ein mechanisches Gerät, das so einfache Symbole wie 0 und 1 mischt, jeden denkbaren Prozess der mathematischen Deduktion nachahmen könnte. Die entscheidende Erkenntnis war die Turing-Maschine – ein einfaches theoretisches Konstrukt, das die Essenz der abstrakten Symbolmanipulation erfasste. Diese Erfindung würde eine Handvoll Wissenschaftler dazu inspirieren, über die Möglichkeit denkender Maschinen zu diskutieren.

Informatik

Rechenmaschinen wurden in der Antike gebaut und im Laufe der Geschichte von vielen Mathematikern, darunter (wieder) dem Philosophen Gottfried Leibniz, verbessert . Im frühen 19. Jahrhundert entwarf Charles Babbage einen programmierbaren Computer (die Analytical Engine ), der jedoch nie gebaut wurde. Ada Lovelace spekulierte, dass die Maschine „ausgearbeitete und wissenschaftliche Musikstücke jeglicher Komplexität oder Ausmaßes komponieren könnte“. (Sie wird oft als erste Programmiererin bezeichnet, weil sie eine Reihe von Notizen geschrieben hat, die eine Methode zur Berechnung von Bernoulli-Zahlen mit der Engine vollständig detailliert beschreiben .)

Die ersten modernen Computer waren die massiven Code-Breaking-Maschinen des Zweiten Weltkriegs (wie Z3 , ENIAC und Colossus ). Die beiden letztgenannten Maschinen basierten auf den theoretischen Grundlagen von Alan Turing und wurden von John von Neumann entwickelt .

Die Geburt der künstlichen Intelligenz 1952–1956

Der IBM 702: ein Computer der ersten Generation von KI-Forschern.

In den 1940er und 50er Jahren begannen eine Handvoll Wissenschaftler aus verschiedenen Bereichen (Mathematik, Psychologie, Ingenieurwissenschaften, Wirtschaftswissenschaften und Politikwissenschaft) über die Möglichkeit der Schaffung eines künstlichen Gehirns zu diskutieren. Das Forschungsgebiet Künstliche Intelligenz wurde 1956 als akademische Disziplin gegründet.

Kybernetik und frühe neuronale Netze

Die früheste Forschung zu Denkmaschinen wurde von einem Zusammenfluss von Ideen inspiriert, die in den späten 1930er, 1940er und frühen 1950er Jahren vorherrschten. Neuere Forschungen in der Neurologie hatten gezeigt, dass das Gehirn ein elektrisches Netzwerk von Neuronen ist , das in Alles-oder-Nichts-Impulsen feuert. Die Kybernetik von Norbert Wiener beschrieb die Kontrolle und Stabilität in elektrischen Netzen. Die Informationstheorie von Claude Shannon beschrieb digitale Signale (dh Alles-oder-Nichts-Signale). Alan Turing ‚s Theorie der Berechnung ergab , dass jede Form der Berechnung digital beschrieben werden kann. Die enge Verwandtschaft zwischen diesen Ideen legte nahe, dass es möglich sein könnte, ein elektronisches Gehirn zu konstruieren .

Beispiele für die Arbeit in diesem Sinne umfasst Roboter wie W. Gray Walter ‚s Schildkröten und der Johns Hopkins Beast . Diese Maschinen verwendeten keine Computer, digitale Elektronik oder symbolische Argumentation; sie wurden vollständig durch analoge Schaltungen gesteuert.

Walter Pitts und Warren McCulloch analysierten 1943 Netzwerke idealisierter künstlicher Neuronen und zeigten, wie sie einfache logische Funktionen ausführen könnten. Sie waren die ersten, die das beschrieben, was spätere Forscher ein neuronales Netzwerk nennen würden . Einer der von Pitts und McCulloch inspirierten Studenten war ein junger Marvin Minsky , damals ein 24-jähriger Doktorand. 1951 baute er (mit Dean Edmonds) die erste neuronale Netzmaschine , die SNARC . Minsky sollte für die nächsten 50 Jahre einer der wichtigsten Führer und Innovatoren in der KI werden.

Turings Test

1950 veröffentlichte Alan Turing ein wegweisendes Papier, in dem er über die Möglichkeit spekulierte, denkende Maschinen zu schaffen. Er merkte an, dass „Denken“ schwer zu definieren sei und entwarf seinen berühmten Turing-Test . Wenn eine Maschine ein Gespräch (über einen Fernschreiber ) führen konnte, das nicht von einem Gespräch mit einem Menschen zu unterscheiden war, dann war es vernünftig zu sagen, dass die Maschine "denkt". Diese vereinfachte Version des Problems ermöglichte es Turing, überzeugend zu argumentieren, dass eine "Denkmaschine" zumindest plausibel sei, und das Papier beantwortete alle gängigsten Einwände gegen den Vorschlag. Der Turing-Test war der erste ernsthafte Vorschlag in der Philosophie der künstlichen Intelligenz .

Spiel-KI

Im Jahr 1951, die unter Verwendung von Ferranti Mark 1 Maschine der University of Manchester , Christopher Strachey schrieb ein Kontrolleure Programm und Dietrich Prinz schrieb einen für Schach. Arthur Samuels Dame-Programm, das Mitte der 50er und Anfang der 60er Jahre entwickelt wurde, erreichte schließlich ausreichende Fähigkeiten, um einen respektablen Amateur herauszufordern. Die Spiel-KI würde während ihrer gesamten Geschichte weiterhin als Maß für den Fortschritt in der KI verwendet werden.

Symbolisches Denken und der Logiktheoretiker

Als Mitte der fünfziger Jahre der Zugang zu digitalen Computern möglich wurde, erkannten einige Wissenschaftler instinktiv, dass eine Maschine, die Zahlen manipulieren konnte, auch Symbole manipulieren konnte und dass die Manipulation von Symbolen durchaus die Essenz des menschlichen Denkens sein könnte. Dies war ein neuer Ansatz, um Denkmaschinen zu schaffen.

1955 schufen Allen Newell und (zukünftiger Nobelpreisträger) Herbert A. Simon den „ Logic Theorist “ (mit Hilfe von JC Shaw ). Das Programm würde schließlich 38 der ersten 52 Sätze in Russell und Whiteheads Principia Mathematica beweisen und für einige neue und elegantere Beweise finden. Simon sagte, dass sie "das ehrwürdige Geist-Körper-Problem gelöst haben und erklärt haben, wie ein aus Materie bestehendes System die Eigenschaften des Geistes haben kann". (Dies war eine frühe Aussage der philosophischen Position, die John Searle später als „ starke KI “ bezeichnen würde: dass Maschinen den Geist genauso enthalten können wie der menschliche Körper.)

Dartmouth Workshop 1956: die Geburt von AI

Der Dartmouth Workshop 1956 wurde von Marvin Minsky , John McCarthy und zwei leitenden Wissenschaftlern organisiert: Claude Shannon und Nathan Rochester von IBM . Der Vorschlag für die Konferenz enthielt diese Behauptung: "Jeder Aspekt des Lernens oder jede andere Eigenschaft der Intelligenz kann so genau beschrieben werden, dass eine Maschine dazu gebracht werden kann, ihn zu simulieren". Zu den Teilnehmern gehörten Ray Solomonoff , Oliver Selfridge , Trenchard More , Arthur Samuel , Allen Newell und Herbert A. Simon , die alle in den ersten Jahrzehnten der KI-Forschung wichtige Programme entwickeln sollten. Auf der Konferenz debütierten Newell und Simon als „ Logic Theorist “ und McCarthy überredete die Teilnehmer, „Künstliche Intelligenz“ als Fachbezeichnung zu akzeptieren. Die Konferenz von Dartmouth 1956 war der Moment, in dem die KI ihren Namen, ihre Mission, ihren ersten Erfolg und ihre wichtigsten Akteure erhielt und gilt weithin als die Geburtsstunde der KI. Der Begriff "Künstliche Intelligenz" wurde von McCarthy gewählt, um Assoziationen mit Kybernetik und Verbindungen mit dem einflussreichen Kybernetiker Norbert Wiener zu vermeiden .

Symbolische AI 1956–1974

Die Programme, die in den Jahren nach dem Dartmouth-Workshop entwickelt wurden, waren für die meisten Menschen einfach "erstaunlich": Computer lösten algebraische Wortprobleme, bewiesen geometrische Theoreme und lernten Englisch. Dass ein so „intelligentes“ Verhalten von Maschinen überhaupt möglich ist, hätten damals nur wenige geglaubt. Die Forscher äußerten sich sowohl privat als auch in gedruckter Form sehr optimistisch und sagten voraus, dass eine vollständig intelligente Maschine in weniger als 20 Jahren gebaut werden würde. Regierungsbehörden wie die DARPA haben Geld in das neue Feld gesteckt.

Nähert sich

In den späten 50er und 60er Jahren gab es viele erfolgreiche Programme und neue Richtungen. Zu den einflussreichsten gehörten diese:

Argumentation als Suche

Viele frühe KI-Programme verwendeten den gleichen grundlegenden Algorithmus . Um ein Ziel zu erreichen (wie ein Spiel zu gewinnen oder einen Satz zu beweisen), gingen sie Schritt für Schritt darauf zu (indem sie einen Zug machten oder einen Abzug machten), als ob sie ein Labyrinth durchsuchten, und kehrten jedes Mal zurück, wenn sie in eine Sackgasse kamen. Dieses Paradigma wurde als „ Überlegung als Suche “ bezeichnet.

Die Hauptschwierigkeit bestand darin, dass bei vielen Problemen die Anzahl der möglichen Wege durch das "Labyrinth" einfach astronomisch war (eine Situation, die als " kombinatorische Explosion " bekannt ist). Forscher würden den Suchraum verkleinern, indem sie Heuristiken oder „ Faustregeln “ verwenden, die jene Wege eliminieren, die wahrscheinlich nicht zu einer Lösung führen.

Newell und Simon versuchten, eine allgemeine Version dieses Algorithmus in einem Programm namens „ General Problem Solver “ zu erfassen . Andere "Suche" Programme konnten eindrucksvolle Aufgaben wie die Lösung von Problemen in der Geometrie und Algebra, wie erreichen Herbert Gelernter ‚s Geometry Theorem Prover (1958) und SAINT durch schriftliche Minsky Student James Slagle (1961). Andere Programme durchsuchten Ziele und Teilziele, um Aktionen zu planen, wie das in Stanford entwickelte STRIPS- System , um das Verhalten ihres Roboters Shakey zu kontrollieren .

Ein Beispiel für ein semantisches Netzwerk

Natürliche Sprache

Ein wichtiges Ziel der KI-Forschung ist es, Computern die Kommunikation in natürlichen Sprachen wie Englisch zu ermöglichen. Ein früher Erfolg war das Programm STUDENT von Daniel Bobrow , das Algebra- Wortaufgaben der High School lösen konnte.

Ein semantisches Netz repräsentiert Konzepte (zB "Haus", "Tür") als Knoten und Beziehungen zwischen Konzepten (zB "has-a") als Verbindungen zwischen den Knoten. Das erste AI - Programm ein semantisches Netz zu verwenden , wurde durch schriftlichen Ross Quillian und das erfolgreichste (und umstrittene) Version war Roger Schank ‚s Conceptual Dependenztheorie .

Joseph Weizenbaum ‚s ELIZA könnten Gespräche durchführen , die so realistisch waren , dass die Nutzer gelegentlich getäuscht wurden zu denken , sie wurden mit einem Menschen in Verbindung steht und kein Programm (siehe ELIZA - Effekt ). Aber tatsächlich hatte ELIZA keine Ahnung, wovon sie sprach. Sie gab einfach eine vorgefertigte Antwort oder wiederholte, was ihr gesagt wurde, und formulierte ihre Antwort mit ein paar Grammatikregeln neu. ELIZA war der erste Chatterbot .

Mikrowelten

In den späten 60er Jahren schlugen Marvin Minsky und Seymour Papert vom MIT AI Laboratory vor, dass sich die KI-Forschung auf künstlich einfache Situationen konzentrieren sollte, die als Mikrowelten bekannt sind. Sie wiesen darauf hin, dass in erfolgreichen Wissenschaften wie der Physik Grundprinzipien oft am besten mit vereinfachten Modellen wie reibungsfreien Ebenen oder vollkommen starren Körpern verstanden werden. Ein Großteil der Forschung konzentrierte sich auf eine „ Blockwelt “, die aus farbigen Blöcken verschiedener Formen und Größen besteht, die auf einer ebenen Fläche angeordnet sind.

Dieses Paradigma führte zu innovativen Arbeiten im Bereich der maschinellen Bildverarbeitung von Gerald Sussman (der das Team leitete), Adolfo Guzman , David Waltz (der die „ Constraint Propagation “ erfand ) und insbesondere Patrick Winston . Zur gleichen Zeit bauten Minsky und Papert einen Roboterarm, der Blöcke stapeln konnte und so die Welt der Blöcke zum Leben erweckte. Die Krönung des Mikroweltprogramms war das SHRDLU von Terry Winograd . Es konnte in gewöhnlichen englischen Sätzen kommunizieren, Operationen planen und ausführen.

Automaten

In Japan initiierte die Waseda University 1967 das WABOT-Projekt und stellte 1972 den WABOT-1 fertig, den weltweit ersten vollwertigen "intelligenten" humanoiden Roboter oder Android . Sein Gliedmaßenkontrollsystem ermöglichte es ihm, mit den unteren Gliedmaßen zu gehen und Gegenstände mit den Händen unter Verwendung von taktilen Sensoren zu greifen und zu transportieren. Sein Sichtsystem ermöglichte es ihm, Entfernungen und Richtungen zu Objekten mit externen Rezeptoren, künstlichen Augen und Ohren zu messen. Und sein Konversationssystem ermöglichte es ihm, mit einer Person auf Japanisch mit einem künstlichen Mund zu kommunizieren.

Optimismus

Die erste Generation von KI-Forschern machte diese Vorhersagen über ihre Arbeit:

  • 1958, HA Simon und Allen Newell : "Innerhalb von zehn Jahren wird ein Digitalcomputer Schachweltmeister sein" und "Innerhalb von zehn Jahren wird ein Digitalcomputer einen wichtigen neuen mathematischen Satz entdecken und beweisen."
  • 1965, HA Simon : "Maschinen werden in zwanzig Jahren in der Lage sein, jede Arbeit zu erledigen, die ein Mensch tun kann."
  • 1967, Marvin Minsky : "Innerhalb einer Generation ... wird das Problem der Schaffung von 'künstlicher Intelligenz' im Wesentlichen gelöst sein."
  • 1970, Marvin Minsky (im Life Magazine ): "In drei bis acht Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines durchschnittlichen Menschen haben."

Finanzierung

Im Juni 1963 erhielt das MIT von der neu gegründeten Advanced Research Projects Agency (später bekannt als DARPA ) einen Zuschuss in Höhe von 2,2 Millionen US-Dollar . Mit dem Geld wurde das Projekt MAC finanziert, das die fünf Jahre zuvor von Minsky und McCarthy gegründete "AI Group" subsumierte . DARPA stellte bis in die 70er Jahre weiterhin drei Millionen Dollar pro Jahr zur Verfügung. DARPA gewährte dem Programm von Newell und Simon an der CMU und dem Stanford AI Project (gegründet von John McCarthy im Jahr 1963) ähnliche Zuschüsse . Ein weiteres wichtiges KI-Labor wurde 1965 von Donald Michie an der Universität Edinburgh gegründet . Diese vier Institutionen sollten noch viele Jahre lang die Hauptzentren der KI-Forschung (und Finanzierung) in der akademischen Welt sein.

Das Geld wurde mit wenigen Bedingungen angeboten: JCR Licklider , damals der Direktor von ARPA , glaubte, dass seine Organisation "Menschen finanzieren sollte, keine Projekte!" und ermöglichte es den Forschern, alle Richtungen zu verfolgen, die sie interessieren könnten. Dies schuf eine freilaufende Atmosphäre am MIT , die die Hackerkultur hervorbrachte , aber dieser "Hände weg"-Ansatz würde nicht von Dauer sein.

Der erste KI-Winter 1974–1980

In den 1970er Jahren war KI Kritik und finanziellen Rückschlägen ausgesetzt. KI-Forscher hatten die Schwierigkeit der Probleme, mit denen sie konfrontiert waren, nicht erkannt. Ihr enormer Optimismus hatte die Erwartungen unglaublich hoch geschürt, und als die versprochenen Ergebnisse nicht eintraten, verschwand die Finanzierung für KI. Zur gleichen Zeit, das Feld des Konnektionismus (oder neuronale Netze ) wurde fast vollständig heruntergefahren für 10 Jahre von Marvin Minsky ‚s vernichtender Kritik von Perceptrons . Trotz der Schwierigkeiten mit der öffentlichen Wahrnehmung von KI in den späten 70er Jahren wurden neue Ideen in der Logikprogrammierung , im vernünftigen Denken und in vielen anderen Bereichen erforscht .

Die Probleme

In den frühen siebziger Jahren waren die Fähigkeiten von KI-Programmen begrenzt. Selbst die beeindruckendsten konnten nur mit trivialen Versionen der Probleme umgehen, die sie lösen sollten; alle Programme waren in gewissem Sinne "Spielzeug". KI-Forscher stießen in den 1970er Jahren auf einige grundlegende Grenzen, die nicht überwunden werden konnten. Obwohl einige dieser Grenzen erst in späteren Jahrzehnten überwunden werden sollten, blockieren andere das Feld bis heute.

  • Begrenzte Computerleistung : Es war nicht genug Speicher oder Verarbeitungsgeschwindigkeit vorhanden, um wirklich Nützliches zu erreichen. Zum Beispiel wurde Ross Quillians erfolgreiche Arbeit über natürliche Sprache mit einem Wortschatz von nur zwanzig Wörtern demonstriert , weil das alles war, was ins Gedächtnis passte. Hans Moravec argumentierte 1976, dass Computer immer noch millionenfach zu schwach seien, um Intelligenz zu zeigen. Er schlug eine Analogie vor: Künstliche Intelligenz benötigt Computerleistung genauso wie Flugzeuge Pferdestärken . Unterhalb einer bestimmten Schwelle ist es unmöglich, aber mit zunehmender Leistung könnte es irgendwann einfach werden. In Bezug auf Computer Vision schätzte Moravec, dass eine einfache Anpassung der Kanten- und Bewegungserkennungsfähigkeiten der menschlichen Netzhaut in Echtzeit einen Allzweckcomputer mit 10 9 Operationen/Sekunde (1000 MIPS) erfordern würde . Ab 2011 erfordern praktische Computer-Vision-Anwendungen 10.000 bis 1.000.000 MIPS. Im Vergleich dazu war der schnellste Supercomputer im Jahr 1976, Cray-1 (Einzelhandelspreis von 5 bis 8 Millionen US-Dollar), nur in der Lage, etwa 80 bis 130 MIPS zu erreichen, und ein typischer Desktop-Computer erreichte zu dieser Zeit weniger als 1 MIPS.
  • Widerspenstigkeit und die kombinatorische Explosion . 1972 zeigte Richard Karp (aufbauend auf Stephen Cooks Theorem von 1971), dass es viele Probleme gibt , die wahrscheinlich nur in exponentieller Zeit (in der Größe der Eingaben)gelöst werden können. Die Suche nach optimalen Lösungen für diese Probleme erfordert unvorstellbar viel Computerzeit, es sei denn, die Probleme sind trivial. Dies bedeutete mit ziemlicher Sicherheit, dass viele der von KI verwendeten "Spielzeug" -Lösungen wahrscheinlich nie zu nützlichen Systemen skalieren würden.
  • Commonsense Wissen und Argumentation . Viele wichtige Anwendungen der künstlichen Intelligenz wie das Sehen oder die natürliche Sprache benötigen einfach enorme Mengen an Informationen über die Welt: Das Programm muss eine Vorstellung davon haben, was es möglicherweise betrachtet oder wovon es spricht. Dies erfordert, dass das Programm die meisten der gleichen Dinge über die Welt weiß wie ein Kind. Die Forscher entdeckten bald, dass dies eine wirklich riesige Menge an Informationen war. Niemand konnte 1970 eine so große Datenbank aufbauen, und niemand wusste, wie ein Programm so viele Informationen lernen konnte.
  • Moravecs Paradoxon : Theoreme zu beweisen und Geometrieprobleme zu lösen, ist für Computer vergleichsweise einfach, aber eine vermeintlich einfache Aufgabe wie das Erkennen eines Gesichts oder das Durchqueren eines Raumes, ohne gegen etwas zu stoßen, ist extrem schwierig. Dies erklärt, warum die Forschung im Bereich Vision und Robotik Mitte der 1970er Jahre so wenig Fortschritte gemacht hatte.
  • Der Rahmen und Qualifikationsprobleme . KI-Forscher (wie John McCarthy ), die Logik verwendeten, entdeckten, dass sie gewöhnliche Schlussfolgerungen, die Planungs- oder Standardschlussfolgerungen beinhalteten, nicht darstellen konnten, ohne Änderungen an der Struktur der Logik selbst vorzunehmen. Sie entwickelten neue Logiken (wie nicht-monotone Logiken und modale Logiken ), um zu versuchen, die Probleme zu lösen.

Das Ende der Finanzierung

Die Agenturen, die die KI-Forschung finanzierten (wie die britische Regierung , DARPA und NRC ), waren frustriert über den fehlenden Fortschritt und stellten schließlich fast alle Finanzierungen für ungerichtete KI-Forschung ein. Das Muster begann bereits 1966, als der ALPAC- Bericht erschien, in dem die Bemühungen um maschinelle Übersetzung kritisiert wurden. Nachdem die NRC 20 Millionen Dollar ausgegeben hatte, beendete sie jegliche Unterstützung. 1973 kritisierte der Lighthill-Bericht über den Stand der KI-Forschung in England das völlige Versagen der KI, ihre „großartigen Ziele“ zu erreichen, und führte zum Abbau der KI-Forschung in diesem Land. (Der Bericht erwähnte ausdrücklich das kombinatorische Explosionsproblem als Grund für das Versagen der KI.) Die DARPA war zutiefst enttäuscht von den Forschern, die am Speech Understanding Research- Programm an der CMU arbeiteten, und strich eine jährliche Zuwendung von drei Millionen Dollar. Bis 1974 war es schwer, Gelder für KI-Projekte zu finden.

Hans Moravec machte die unrealistischen Vorhersagen seiner Kollegen für die Krise verantwortlich. "Viele Forscher waren in einem Netz zunehmender Übertreibung gefangen." Es gab jedoch noch ein weiteres Problem: Seit der Verabschiedung des Mansfield-Amendments im Jahr 1969 stand die DARPA unter zunehmendem Druck, "missionsorientierte Direktforschung anstelle von ungerichteter Grundlagenforschung" zu finanzieren. Die Finanzierung der kreativen, freizügigen Erkundung, die in den 60er Jahren stattfand, würde nicht von der DARPA kommen . Stattdessen floss das Geld in konkrete Projekte mit klaren Zielen wie autonome Panzer und Gefechtsmanagementsysteme.

Kritik vom ganzen Campus

Mehrere Philosophen hatten starke Einwände gegen die Behauptungen von KI-Forschern. Einer der ersten war John Lucas , der argumentierte, dass Gödels Unvollständigkeitssatz zeigte, dass ein formales System (wie ein Computerprogramm) niemals die Wahrheit bestimmter Aussagen erkennen kann, während ein Mensch dies könnte. Hubert Dreyfus machte sich über die gebrochenen Versprechen der 1960er Jahre lustig und kritisierte die Annahmen der KI, indem er argumentierte, dass menschliches Denken tatsächlich sehr wenig "Symbolverarbeitung" und viel verkörpertes , instinktives , unbewusstes " Know-how " beinhaltete. John Searle ‚s Chinese Room Argument, im Jahr 1980 präsentiert, versucht zu zeigen , dass ein Programm kann nicht‚verstehen‘die Symbole gesagt wird , dass es verwendet (eine Qualität genannt‚ Intentionalität ‘). Wenn die Symbole für die Maschine keine Bedeutung hätten, argumentierte Searle, dann könne die Maschine nicht als „denkend“ bezeichnet werden.

Diese Kritiken wurden von KI-Forschern nicht ernst genommen, oft weil sie so weit weg schienen. Probleme wie Widerspenstigkeit und gesundes Wissen schienen viel unmittelbarer und ernster zu sein. Es war unklar, welchen Unterschied „ Know How “ oder „ Intentionalität “ zu einem tatsächlichen Computerprogramm machten. Minsky sagte über Dreyfus und Searle: "Sie verstehen sie falsch und sollten ignoriert werden." Dreyfus, der am MIT lehrte , bekam eine kalte Schulter: Er sagte später, dass KI-Forscher "es nicht gewagt haben, mit mir zu Mittag gegessen zu werden". Joseph Weizenbaum , der Autor von ELIZA , empfand den Umgang seiner Kollegen mit Dreyfus als unprofessionell und kindisch. Obwohl er ein ausgesprochener Kritiker von Dreyfus' Positionen war, machte er "absichtlich klar, dass sie nicht die Art und Weise waren, einen Menschen zu behandeln".

Weizenbaum begann ernsthafte ethische Zweifel an KI zu hegen, als Kenneth Colby ein "Computerprogramm, das psychotherapeutischen Dialog führen kann" auf der Grundlage von ELIZA schrieb. Weizenbaum war beunruhigt, dass Colby ein hirnloses Programm als ernsthaftes therapeutisches Werkzeug ansah. Eine Fehde begann, und die Situation wurde nicht verbessert, als Colby Weizenbaum seinen Beitrag zum Programm nicht zuschrieb. Im Jahr 1976 Weizenbaum veröffentlichte Computer Power and Human Reason die , dass der Missbrauch von künstlicher Intelligenz argumentiert , das Potenzial zu entwerten der menschlichen Leben hat.

Perzeptronen und der Angriff auf den Konnektionismus

Ein Perzeptron war eine Form eines neuronalen Netzes, das 1958 von Frank Rosenblatt eingeführt wurde, einem Schulkameraden von Marvin Minsky an der Bronx High School of Science . Wie die meisten KI-Forscher war er hinsichtlich ihrer Leistungsfähigkeit optimistisch und sagte voraus, dass "Perceptron schließlich in der Lage sein könnte, zu lernen, Entscheidungen zu treffen und Sprachen zu übersetzen". Ein aktives Forschungsprogramm zu diesem Paradigma wurde in den 1960er Jahren durchgeführt, kam jedoch mit der Veröffentlichung von Minsky und Paperts Buch Perceptrons von 1969 zum Erliegen . Es deutete darauf hin, dass die Möglichkeiten von Perzeptronen stark eingeschränkt waren und dass Frank Rosenblatts Vorhersagen stark übertrieben waren. Die Wirkung des Buches war verheerend: 10 Jahre lang wurde praktisch keine Forschung zum Konnektionismus betrieben . Schließlich würde eine neue Generation von Forschern das Feld wiederbeleben, und danach würde es zu einem wichtigen und nützlichen Teil der künstlichen Intelligenz werden. Rosenblatt sollte dies nicht mehr erleben, da er kurz nach Erscheinen des Buches bei einem Bootsunfall ums Leben kam.

Logisches und symbolisches Denken: die "Ordentlich"

Logik wurde bereits 1959 von John McCarthy in seinem Advice Taker- Vorschlag in die KI-Forschung eingeführt . 1963 hatte J. Alan Robinson eine einfache Methode entdeckt, um Deduktion auf Computern zu implementieren, den Auflösungs- und Vereinheitlichungsalgorithmus . Allerdings waren einfache Implementierungen, wie sie McCarthy und seine Studenten in den späten 1960er Jahren versuchten, besonders hartnäckig: Die Programme erforderten astronomische Schrittzahlen, um einfache Theoreme zu beweisen. Ein fruchtbarerer Zugang zur Logik wurde in den 1970er Jahren von Robert Kowalski an der University of Edinburgh entwickelt und führte bald zur Zusammenarbeit mit den französischen Forschern Alain Colmerauer und Philippe Roussel , die die erfolgreiche logische Programmiersprache Prolog entwickelten . Prolog verwendet eine Teilmenge der Logik ( Horn-Klauseln , eng verwandt mit „Regeln“ und „ Produktionsregeln “), die eine steuerbare Berechnung ermöglichen. Regeln würde weiterhin einflussreich sein, eine Grundlage für die Bereitstellung von Edward Feigenbaum ‚s Expertensystemen und die Fortsetzung der Arbeit von Allen Newell und Herbert A. Simon , die führen würde Soar und ihre einheitlichen Erkenntnistheorien .

Kritiker des logischen Ansatzes bemerkten, wie Dreyfus es getan hatte, dass Menschen selten Logik verwendeten, wenn sie Probleme lösten. Experimente von Psychologen wie Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman und anderen lieferten den Beweis. McCarthy antwortete, dass das, was die Leute tun, irrelevant sei. Er argumentierte, dass das, was wirklich gebraucht wird, Maschinen sind, die Probleme lösen können – keine Maschinen, die wie Menschen denken.

Frames und Skripte: die "Raufereien"

Zu den Kritikern von McCarthys Ansatz gehörten seine Kollegen im ganzen Land am MIT . Marvin Minsky , Seymour Papert und Roger Schank versuchten, Probleme wie "Geschichtsverständnis" und "Objekterkennung" zu lösen, bei denen eine Maschine wie ein Mensch denken musste. Um gewöhnliche Konzepte wie "Stuhl" oder "Restaurant" zu verwenden, mussten sie dieselben unlogischen Annahmen treffen, die die Leute normalerweise machten. Leider sind ungenaue Konzepte wie diese schwer logisch darzustellen. Gerald Sussman bemerkte, dass "die Verwendung einer präzisen Sprache zur Beschreibung von im Wesentlichen ungenauen Konzepten diese nicht präziser macht." Schank beschrieb ihre „anti-logischen“ Ansätze als „ scruffy “, im Gegensatz zu den „ ordentlichen “ Paradigmen von McCarthy , Kowalski , Feigenbaum , Newell und Simon .

1975 stellte Minsky in einer wegweisenden Arbeit fest, dass viele seiner "schmuddeligen" Forscherkollegen die gleiche Art von Werkzeug verwendeten: einen Rahmen, der all unsere Annahmen des gesunden Menschenverstands über etwas einfängt . Wenn wir zum Beispiel den Begriff Vogel verwenden, kommt uns sofort eine Konstellation von Fakten in den Sinn: Wir könnten annehmen, dass er fliegt, Würmer frisst und so weiter. Wir wissen, dass diese Tatsachen nicht immer wahr sind und dass Schlussfolgerungen, die diese Tatsachen verwenden, nicht "logisch" sein werden, aber diese strukturierten Annahmen sind Teil des Kontexts von allem, was wir sagen und denken. Er nannte diese Strukturen „ Rahmen “. Schank verwendete eine Version von Frames, die er „ Skripte “ nannte, um erfolgreich Fragen zu Kurzgeschichten auf Englisch zu beantworten. Viele Jahre später übernahm die objektorientierte Programmierung die wesentliche Idee der „ Vererbung “ aus der KI-Forschung an Frames.

Boom 1980–1987

In den 1980er Jahren wurde eine Form von KI-Programmen namens " Expertensysteme " von Unternehmen auf der ganzen Welt übernommen und das Wissen wurde zum Schwerpunkt der Mainstream-KI-Forschung. In denselben Jahren finanzierte die japanische Regierung mit ihrem Computerprojekt der fünften Generation aggressiv KI . Ein weiteres ermutigendes Ereignis in den frühen 1980er Jahren war die Wiederbelebung des Konnektionismus in den Werken von John Hopfield und David Rumelhart . Wieder einmal hatte KI Erfolg gehabt.

Der Aufstieg von Expertensystemen

Ein Expertensystem ist ein Programm, das Fragen zu einem bestimmten Wissensbereich beantwortet oder Probleme löst, indem logische Regeln verwendet werden, die aus dem Wissen von Experten abgeleitet werden. Die frühesten Beispiele wurden von Edward Feigenbaum und seinen Schülern entwickelt. Dendral , das 1965 begann, identifizierte Verbindungen aus Spektrometerablesungen. MYCIN , 1972 entwickelt, diagnostizierte infektiöse Blutkrankheiten. Sie demonstrierten die Machbarkeit des Ansatzes.

Expertensysteme beschränkten sich auf einen kleinen Bereich spezifischen Wissens (wodurch das Commonsense-Wissensproblem vermieden wurde ) und ihr einfaches Design machte es relativ einfach, Programme zu erstellen und dann, wenn sie einmal vorhanden waren, zu ändern. Alles in allem erwiesen sich die Programme als nützlich : etwas, was KI bisher nicht leisten konnte.

1980 wurde an der CMU ein Expertensystem namens XCON für die Digital Equipment Corporation fertiggestellt . Es war ein enormer Erfolg: Bis 1986 sparte das Unternehmen jährlich 40 Millionen Dollar. Unternehmen auf der ganzen Welt begannen, Expertensysteme zu entwickeln und einzusetzen, und bis 1985 gaben sie über eine Milliarde Dollar für KI aus, den größten Teil davon für interne KI Abteilungen. Eine Industrie entstand, um sie zu unterstützen, darunter Hardwareunternehmen wie Symbolics und Lisp Machines und Softwareunternehmen wie IntelliCorp und Aion .

Die Wissensrevolution

Die Macht von Expertensystemen kam aus dem darin enthaltenen Expertenwissen. Sie waren Teil einer neuen Richtung in der KI-Forschung, die in den 70er Jahren an Boden gewonnen hatte. „KI-Forscher begannen zu vermuten – widerstrebend, denn sie verstieß gegen den wissenschaftlichen Kanon der Sparsamkeit –, dass Intelligenz sehr wohl auf der Fähigkeit beruhen könnte, große Mengen unterschiedlichen Wissens auf unterschiedliche Weise zu nutzen“, schreibt Pamela McCorduck . „[D]ie große Lehre aus den 1970er Jahren war, dass intelligentes Verhalten sehr stark vom Umgang mit Wissen, manchmal sehr detailliertem Wissen, über einen Bereich abhing, in dem eine bestimmte Aufgabe lag.“ Wissensbasierte Systeme und Knowledge Engineering wurden in den 1980er Jahren zu einem wichtigen Schwerpunkt der KI-Forschung.

In den 1980er Jahren wurde auch Cyc geboren , der erste Versuch, das Wissensproblem des gesunden Menschenverstands direkt anzugreifen , indem eine riesige Datenbank erstellt wurde, die alle alltäglichen Fakten enthielt, die der Durchschnittsmensch kennt. Douglas Lenat , der das Projekt begann und leitete, argumentierte, dass es keine Abkürzung gibt – der einzige Weg für Maschinen, die Bedeutung menschlicher Konzepte zu erkennen, besteht darin, ihnen ein Konzept nach dem anderen von Hand beizubringen. Mit einer Fertigstellung des Projekts war jahrzehntelang nicht zu rechnen.

Die Schachprogramme HiTech und Deep Thought besiegten 1989 die Schachmeister. Beide wurden von der Carnegie Mellon University entwickelt ; Die Entwicklung von Deep Thought ebnete den Weg für Deep Blue .

Das Geld kehrt zurück: das Projekt der fünften Generation

1981 stellte das japanische Ministerium für internationalen Handel und Industrie 850 Millionen US-Dollar für das Computerprojekt der fünften Generation bereit . Ihre Ziele waren, Programme zu schreiben und Maschinen zu bauen, die Gespräche führen, Sprachen übersetzen, Bilder interpretieren und wie Menschen denken konnten. Sehr zum Leidwesen der Schurken wählten sie Prolog als primäre Computersprache für das Projekt.

Andere Länder reagierten mit eigenen neuen Programmen. Großbritannien startete das 350 Millionen Pfund teure Alvey- Projekt. Ein Konsortium amerikanischer Unternehmen gründete die Microelectronics and Computer Technology Corporation (oder "MCC"), um Großprojekte in den Bereichen KI und Informationstechnologie zu finanzieren. Auch die DARPA reagierte, gründete die Strategic Computing Initiative und verdreifachte ihre Investitionen in KI zwischen 1984 und 1988.

Ein Hopfield-Netz mit vier Knoten.

Die Wiederbelebung des Konnektionismus

1982 konnte der Physiker John Hopfield nachweisen, dass eine Form eines neuronalen Netzes (heute „ Hopfield-Netz “ genannt) auf völlig neue Weise Informationen lernen und verarbeiten kann. Ungefähr zur gleichen Zeit machten Geoffrey Hinton und David Rumelhart eine Methode zum Training neuronaler Netze namens „ Backpropagation “ bekannt, die auch als umgekehrter Modus der automatischen Differenzierung bekannt ist, veröffentlicht von Seppo Linnainmaa (1970) und von Paul Werbos auf neuronale Netze angewendet . Diese beiden Entdeckungen trugen dazu bei, das Feld des Konnektionismus wiederzubeleben .

Das neue Gebiet wurde durch das Erscheinen von Parallel Distributed Processing im Jahr 1986 vereinheitlicht und inspiriert – eine zweibändige Sammlung von Aufsätzen, herausgegeben von Rumelhart und dem Psychologen James McClelland . Neuronale Netze wurden in den 1990er Jahren kommerziell erfolgreich, als sie als Motoren für Programme wie optische Zeichenerkennung und Spracherkennung eingesetzt wurden .

Die Entwicklung der Metall-Oxid-Halbleiter (MOS) Very-Large-Scale-Integration (VLSI) in Form der komplementären MOS ( CMOS )-Technologie ermöglichte in den 1980er Jahren die Entwicklung praktischer künstlicher neuronaler Netze (ANN). Eine wegweisende Veröffentlichung auf diesem Gebiet war das 1989 erschienene Buch Analog VLSI Implementation of Neural Systems von Carver A. Mead und Mohammed Ismail.

Büste: der zweite KI-Winter 1987–1993

Die Faszination der Wirtschaft für KI stieg und fiel in den 1980er Jahren im klassischen Muster einer Wirtschaftsblase . Der Zusammenbruch war auf das Versäumnis kommerzieller Anbieter zurückzuführen, eine Vielzahl praktikabler Lösungen zu entwickeln. Da Dutzende von Unternehmen scheiterten, bestand die Auffassung, dass die Technologie nicht tragfähig sei. Trotz der Kritik machte das Feld jedoch weiterhin Fortschritte. Zahlreiche Forscher, darunter die Robotik- Entwickler Rodney Brooks und Hans Moravec , plädierten für einen völlig neuen Ansatz der Künstlichen Intelligenz.

KI-Winter

Der Begriff „ KI-Winter “ wurde von Forschern geprägt, die die Mittelkürzungen von 1974 überstanden hatten, als sie befürchteten, dass die Begeisterung für Expertensysteme außer Kontrolle gerät und mit Sicherheit Enttäuschungen folgen würden. Ihre Befürchtungen waren begründet: Ende der 1980er und Anfang der 1990er Jahre erlitt KI eine Reihe von finanziellen Rückschlägen.

Das erste Anzeichen für einen Wetterumschwung war der plötzliche Zusammenbruch des Marktes für spezialisierte KI-Hardware im Jahr 1987. Desktop-Computer von Apple und IBM gewannen stetig an Geschwindigkeit und Leistung und wurden 1987 leistungsstärker als die teureren Lisp-Maschinen von Symbolik und andere. Es gab keinen guten Grund mehr, sie zu kaufen. Eine ganze Industrie im Wert von einer halben Milliarde Dollar wurde über Nacht zerstört.

Schließlich erwiesen sich die ersten erfolgreichen Expertensysteme wie XCON als zu teuer in der Wartung. Sie waren schwer zu aktualisieren, sie konnten nicht lernen, sie waren „ brüchig “ (dh sie konnten bei ungewöhnlichen Eingaben groteske Fehler machen) und sie fielen Problemen (wie dem Qualifikationsproblem ) zum Opfer, die Jahre zuvor identifiziert worden waren. Expertensysteme haben sich als nützlich erwiesen, jedoch nur in einigen speziellen Kontexten.

In den späten 1980er Jahren kürzte die Strategic Computing Initiative die Mittel für KI "tief und brutal". Die neue Führung bei DARPA hatte entschieden, dass KI nicht "die nächste Welle" sei, und Gelder in Projekte gelenkt, die eher sofortige Ergebnisse zu erzielen schienen.

Bis 1991 war die beeindruckende Liste von Zielen, die 1981 für Japans Projekt der fünften Generation verfasst wurde, nicht erreicht. Tatsächlich wurden einige von ihnen, wie "ein lockeres Gespräch führen", bis 2010 nicht erfüllt. Wie bei anderen KI-Projekten waren die Erwartungen viel höher als das, was tatsächlich möglich war.

Bis Ende 1993 waren über 300 KI-Unternehmen geschlossen, bankrott gegangen oder wurden übernommen, was die erste kommerzielle Welle von KI effektiv beendete.

Nouvelle AI und verkörperte Vernunft

Ende der 1980er Jahre befürworteten mehrere Forscher einen völlig neuen Ansatz der künstlichen Intelligenz, basierend auf Robotik. Sie glaubten, dass eine Maschine einen Körper haben muss , um echte Intelligenz zu zeigen – sie muss die Welt wahrnehmen, sich bewegen, überleben und mit ihr umgehen. Sie argumentierten, dass diese sensomotorischen Fähigkeiten für höhere Fähigkeiten wie das vernünftige Denken unerlässlich sind und dass abstraktes Denken tatsächlich die am wenigsten interessante oder wichtige menschliche Fähigkeit sei (siehe Moravecs Paradox ). Sie plädierten dafür, Intelligenz "von unten nach oben" aufzubauen.

Der Ansatz belebte Ideen der Kybernetik und der Kontrolltheorie wieder , die seit den sechziger Jahren unbeliebt waren. Ein weiterer Vorläufer war David Marr , der Ende der 1970er Jahre mit einem erfolgreichen Hintergrund in theoretischen Neurowissenschaften ans MIT gekommen war , um die Gruppe, die das Sehvermögen untersuchte, zu leiten . Er lehnte alle symbolischen Ansätze ab ( sowohl McCarthys Logik als auch Minskys Frames) und argumentierte, dass die KI die physische Maschinerie des Sehens von Grund auf verstehen müsse, bevor eine symbolische Verarbeitung stattfindet. (Marrs Arbeit wurde 1980 durch Leukämie unterbrochen.)

In einem Artikel aus dem Jahr 1990 mit dem Titel "Elephants Don't Play Chess" zielte der Robotikforscher Rodney Brooks direkt auf die Hypothese des physikalischen Symbolsystems ab und argumentierte, dass Symbole nicht immer notwendig seien, da "die Welt ihr eigenes bestes Modell ist. Es ist immer genau nach oben". Es hat immer jedes Detail, das es zu wissen gilt. Der Trick besteht darin, es angemessen und oft genug zu spüren." In den 1980er und 1990er Jahren lehnten viele Kognitionswissenschaftler auch das Symbolverarbeitungsmodell des Geistes ab und argumentierten, dass der Körper für das Denken unerlässlich sei, eine Theorie, die als Embodied-Mind- These bezeichnet wird.

KI 1993–2011

Der Bereich der KI, der mittlerweile über ein halbes Jahrhundert alt ist, hat endlich einige seiner ältesten Ziele erreicht. Es begann in der gesamten Technologiebranche erfolgreich eingesetzt zu werden, wenn auch etwas hinter den Kulissen. Der Erfolg war zum Teil auf die zunehmende Rechenleistung zurückzuführen, zum anderen auf die Konzentration auf spezifische Einzelprobleme und deren Verfolgung mit den höchsten Standards wissenschaftlicher Verantwortlichkeit. Dennoch war der Ruf von KI, zumindest in der Geschäftswelt, alles andere als makellos. Innerhalb des Feldes herrschte wenig Einigkeit über die Gründe für das Scheitern der KI, den Traum von Intelligenz auf menschlicher Ebene zu erfüllen, der in den 1960er Jahren die Fantasie der Welt beflügelt hatte. Zusammen trugen all diese Faktoren dazu bei, die KI in konkurrierende Teilbereiche zu zerlegen, die sich auf bestimmte Probleme oder Ansätze konzentrierten, manchmal sogar unter neuen Namen, die den angelaufenen Stammbaum der "künstlichen Intelligenz" verschleierten. KI war vorsichtiger und erfolgreicher als je zuvor.

Meilensteine ​​und das Mooresche Gesetz

Am 11. Mai 1997 war Deep Blue das erste Computer-Schachspielsystem, das den amtierenden Schachweltmeister Garry Kasparov besiegte . Der Supercomputer war eine spezialisierte Version eines von IBM produzierten Frameworks und konnte doppelt so viele Züge pro Sekunde verarbeiten wie während des ersten Spiels (das Deep Blue verloren hatte), angeblich 200.000.000 Züge pro Sekunde. Die Veranstaltung wurde live im Internet übertragen und erreichte über 74 Millionen Aufrufe.

Im Jahr 2005 gewann ein Stanford-Roboter die DARPA Grand Challenge, indem er 131 Meilen autonom auf einem ungeprobten Wüstenpfad fuhr. Zwei Jahre später gewann ein Team von CMU die DARPA Urban Challenge durch autonomes Navigieren von 55 Meilen in einer städtischen Umgebung unter Einhaltung der Verkehrsgefahren und aller Verkehrsregeln. Im Februar 2011, in einem Jeopardy! Quiz - Show Ausstellung Spiel, IBM ‚s Frage - Antwort - System , Watson , schlug die beiden größten Jeopardy! Meister Brad Rutter und Ken Jennings mit deutlichem Vorsprung.

Diese Erfolge waren nicht auf ein revolutionäres neues Paradigma zurückzuführen, sondern hauptsächlich auf die mühsame Anwendung von Ingenieurskunst und auf die enorme Steigerung der Geschwindigkeit und Kapazität von Computern in den 90er Jahren. Tatsächlich war der Computer von Deep Blue 10 Millionen Mal schneller als der Ferranti Mark 1 , den Christopher Strachey 1951 das Schachspielen beibrachte. Dieser dramatische Anstieg wird durch das Mooresche Gesetz gemessen , das voraussagt, dass sich die Geschwindigkeit und die Speicherkapazität von Computern alle zwei Jahre verdoppeln. als Folge der Metall-Oxid-Halbleiter (MOS) Transistor Zählungen alle zwei Jahre verdoppelt. Das grundlegende Problem der "rohen Computerleistung" wurde langsam überwunden.

Intelligente Agenten

Ein neues Paradigma namens " intelligente Agenten " wurde in den 1990er Jahren weithin akzeptiert. Obwohl frühere Forscher modulare „Teile und Herrscher“-Ansätze für die KI vorgeschlagen hatten, erreichte der intelligente Agent seine moderne Form erst, als Judea Pearl , Allen Newell , Leslie P. Kaelbling und andere Konzepte aus der Entscheidungstheorie und der Ökonomie in das Studium der KI einbrachten . Wenn der Ökonom Definition eines rationalen Mittel zu verheiratet war Informatik ‚s Definition eines Objekts oder Modul , das intelligente Agent war Paradigma abgeschlossen.

Ein intelligenter Agent ist ein System, das seine Umgebung wahrnimmt und Maßnahmen ergreift, die seine Erfolgschancen maximieren. Nach dieser Definition sind einfache Programme, die spezifische Probleme lösen, "intelligente Agenten", ebenso wie Menschen und Organisationen von Menschen, wie beispielsweise Firmen . Das Paradigma der intelligenten Agenten definiert KI-Forschung als „das Studium intelligenter Agenten“. Dies ist eine Verallgemeinerung einiger früherer Definitionen von KI: Sie geht über das Studium der menschlichen Intelligenz hinaus; es studiert alle Arten von Intelligenz.

Das Paradigma gab Forschern die Lizenz, isolierte Probleme zu untersuchen und Lösungen zu finden, die sowohl überprüfbar als auch nützlich waren. Es bot eine gemeinsame Sprache, um Probleme zu beschreiben und ihre Lösungen miteinander und mit anderen Bereichen zu teilen, die ebenfalls Konzepte abstrakter Agenten verwendeten, wie Ökonomie und Kontrolltheorie . Man hoffte, dass eine vollständige Agentenarchitektur (wie SOAR von Newell ) es Forschern eines Tages ermöglichen würde, aus interagierenden intelligenten Agenten vielseitigere und intelligentere Systeme zu bauen .

Der "Sieg der Ordensschwestern"

KI-Forscher begannen mehr denn je, ausgeklügelte mathematische Werkzeuge zu entwickeln und einzusetzen. Weit verbreitet war die Erkenntnis, dass viele der Probleme, die KI lösen musste, bereits von Forschern in Bereichen wie Mathematik , Elektrotechnik , Wirtschaftswissenschaften oder Operations Research bearbeitet wurden . Die gemeinsame mathematische Sprache ermöglichte sowohl eine stärkere Zusammenarbeit mit etablierteren und erfolgreicheren Gebieten als auch die Erzielung messbarer und nachweisbarer Ergebnisse; KI war zu einer strengeren „wissenschaftlichen“ Disziplin geworden. Russell & Norvig (2003) beschreiben dies als nichts weniger als eine „Revolution“ und „den Sieg der Ordensleute “.

Judea Pearls einflussreiches Buch aus dem Jahr 1988 brachte die Wahrscheinlichkeits- und Entscheidungstheorie in die KI. Zu den vielen neuen eingesetzten Werkzeugen zählen Bayes'sche Netze , Hidden-Markov-Modelle , Informationstheorie , stochastische Modellierung und klassische Optimierung . Präzise mathematische Beschreibungen wurden auch für „ Computational Intelligence “-Paradigmen wie neuronale Netze und evolutionäre Algorithmen entwickelt .

KI hinter den Kulissen

Ursprünglich von KI-Forschern entwickelte Algorithmen tauchten als Teil größerer Systeme auf. KI hatte viele sehr schwierige Probleme gelöst und ihre Lösungen erwiesen sich in der gesamten Technologiebranche als nützlich, beispielsweise in Data Mining , Industrierobotik , Logistik, Spracherkennung , Banksoftware, medizinischer Diagnose und Googles Suchmaschine.

Der Bereich der KI erhielt für diese Erfolge in den 1990er und frühen 2000er Jahren wenig oder keine Anerkennung. Viele der größten Innovationen der KI sind auf den Status eines weiteren Gegenstands im Werkzeugkasten der Informatik reduziert worden. Nick Bostrom erklärt: "Viele hochmoderne KI hat sich in allgemeine Anwendungen gefiltert, oft ohne KI genannt zu werden, da etwas, sobald es nützlich genug und häufig genug ist, nicht mehr als KI bezeichnet wird."

Viele KI-Forscher nannten ihre Arbeit in den 1990er Jahren bewusst mit anderen Namen, wie etwa Informatik , wissensbasierte Systeme , kognitive Systeme oder Computational Intelligence . Das mag zum Teil daran gelegen haben, dass sie ihr Fachgebiet grundsätzlich anders als KI ansahen, aber auch die neuen Namen helfen bei der Beschaffung von Fördermitteln. Zumindest in der kommerziellen Welt verfolgten die gescheiterten Versprechen des KI-Winters bis in die 2000er Jahre die KI-Forschung, wie die New York Times 2005 berichtete: „Informatiker und Software-Ingenieure mieden den Begriff künstliche Intelligenz aus Angst, als wild angesehen zu werden -äugige Träumer."

Vorhersagen (oder "Wo ist HAL 9000?")

1968 hatten Arthur C. Clarke und Stanley Kubrick sich vorgestellt, dass im Jahr 2001 eine Maschine mit einer Intelligenz existieren würde, die den Fähigkeiten des Menschen entspricht oder diese übertrifft. Der von ihnen geschaffene Charakter HAL 9000 basierte auf der Überzeugung vieler führender KI-Forscher, dass eine solche Maschine im Jahr 2001 existieren würde.

Im Jahr 2001 fragte KI-Gründer Marvin Minsky : "Die Frage ist also, warum wir 2001 kein HAL bekommen haben?" Minsky glaubte, dass die Antwort darin besteht, dass die zentralen Probleme, wie das vernünftige Denken , vernachlässigt wurden, während die meisten Forscher Dinge wie kommerzielle Anwendungen von neuronalen Netzen oder genetischen Algorithmen verfolgten . John McCarthy hingegen machte noch immer das Qualifikationsproblem verantwortlich . Für Ray Kurzweil geht es um die Computerleistung, und mit Hilfe des Mooreschen Gesetzes sagte er voraus, dass bis 2029 Maschinen mit Intelligenz auf menschlicher Ebene erscheinen werden. Jeff Hawkins argumentierte, dass die neuronale Netzforschung die wesentlichen Eigenschaften des menschlichen Kortex ignoriert und einfache Modelle bevorzugt, die erfolgreich einfache Probleme lösen. Es gab viele andere Erklärungen und für jede gab es ein entsprechendes Forschungsprogramm.

Deep Learning, Big Data und künstliche allgemeine Intelligenz: 2011–heute

In den ersten Jahrzehnten des 21. Jahrhunderts wurden der Zugang zu großen Datenmengen (bekannt als „ Big Data “), billigere und schnellere Computer und fortschrittliche Techniken des maschinellen Lernens erfolgreich auf viele Probleme in der gesamten Wirtschaft angewendet. Tatsächlich schätzte das McKinsey Global Institute in seinem berühmten Papier „Big Data: The next frontier for innovation, competition, and Productivity“, dass „bis 2009 fast alle Sektoren der US-Wirtschaft durchschnittlich mindestens 200 Terabyte an gespeicherten Daten hatten“. .

Bis 2016 erreichte der Markt für KI-bezogene Produkte, Hardware und Software mehr als 8 Milliarden Dollar, und die New York Times berichtete, dass das Interesse an KI einen „Rausch“ erreicht habe. Die Anwendungen von Big Data begannen auch in andere Bereiche vorzudringen, wie zum Beispiel Trainingsmodelle in der Ökologie und für verschiedene Anwendungen in der Ökonomie . Fortschritte beim Deep Learning (insbesondere Deep Convolutional Neural Networks und Recurrent Neural Networks ) haben den Fortschritt und die Forschung in der Bild- und Videoverarbeitung, Textanalyse und sogar Spracherkennung vorangetrieben.

Tiefes Lernen

Deep Learning ist ein Zweig des maschinellen Lernens, der Abstraktionen auf hoher Ebene in Daten modelliert, indem ein tiefer Graph mit vielen Verarbeitungsschichten verwendet wird. Nach dem universellen Approximationstheorem ist die Tiefe nicht erforderlich, damit ein neuronales Netzwerk beliebige kontinuierliche Funktionen approximieren kann. Trotzdem gibt es viele Probleme, die flachen Netzwerken gemeinsam sind (z. B. Überanpassung ), die durch tiefe Netzwerke vermieden werden können. Als solche sind tiefe neuronale Netze in der Lage, im Vergleich zu ihren flachen Gegenstücken realistisch viel komplexere Modelle zu generieren.

Allerdings hat Deep Learning eigene Probleme. Ein häufiges Problem für rekurrente neuronale Netze ist das Problem des verschwindenden Gradienten , bei dem Gradienten zwischen den Schichten allmählich schrumpfen und buchstäblich verschwinden, wenn sie auf Null abgerundet werden. Es wurden viele Verfahren entwickelt, um sich diesem Problem zu nähern, wie beispielsweise Long-Kurzzeitgedächtniseinheiten .

Hochmoderne Architekturen tiefer neuronaler Netze können manchmal sogar mit menschlicher Genauigkeit in Bereichen wie Computer Vision konkurrieren, insbesondere bei Dingen wie der MNIST-Datenbank und der Verkehrszeichenerkennung.

Sprachverarbeitungsmaschinen, die von intelligenten Suchmaschinen betrieben werden, können Menschen bei der Beantwortung allgemeiner Trivia-Fragen leicht übertreffen (wie IBM Watson ), und die jüngsten Entwicklungen im Bereich Deep Learning haben erstaunliche Ergebnisse im Wettbewerb mit Menschen erbracht, in Dingen wie Go und Doom (die, da ein Ego-Shooter- Spiel, hat einige Kontroversen ausgelöst).

Große Daten

Big Data bezeichnet eine Sammlung von Daten, die von herkömmlichen Softwaretools nicht innerhalb eines bestimmten Zeitrahmens erfasst, verwaltet und verarbeitet werden können. Es ist eine enorme Menge an Fähigkeiten zur Entscheidungsfindung, Einsicht und Prozessoptimierung, die neue Verarbeitungsmodelle erfordern. In der Big-Data-Ära von Victor Meyer Schönberg und Kenneth Cooke bedeutet Big Data, dass statt einer Zufallsanalyse (Stichprobenerhebung) alle Daten zur Analyse verwendet werden. Die 5V-Eigenschaften von Big Data (vorgeschlagen von IBM): Volumen , Geschwindigkeit , Vielfalt , Wert , Veracity . Die strategische Bedeutung der Big-Data-Technologie besteht nicht darin, riesige Dateninformationen zu beherrschen, sondern sich auf diese aussagekräftigen Daten zu spezialisieren. Mit anderen Worten, wenn Big Data mit einer Branche verglichen wird, liegt der Schlüssel zur Realisierung der Rentabilität in dieser Branche darin, die „ Prozessfähigkeit “ der Daten zu erhöhen und den „ Wertbeitrag “ der Daten durch „ Verarbeitung “ zu realisieren.

Künstliche allgemeine Intelligenz

Allgemeine Intelligenz ist die Fähigkeit, jedes Problem zu lösen , anstatt eine Lösung für ein bestimmtes Problem zu finden. Künstliche allgemeine Intelligenz (oder "AGI") ist ein Programm, das Intelligenz auf eine Vielzahl von Problemen anwenden kann, ähnlich wie Menschen es können.

Ben Goertzel und andere argumentierten Anfang der 2000er Jahre, dass die KI-Forschung das ursprüngliche Ziel des Feldes, künstliche allgemeine Intelligenz zu schaffen, weitgehend aufgegeben habe. AGI-Forschung wurde als eigener Teilbereich gegründet und bis 2010 gab es akademische Konferenzen, Labore und Universitätskurse, die sich der AGI-Forschung widmeten, sowie private Konsortien und neue Unternehmen.

Künstliche allgemeine Intelligenz wird im Gegensatz zu „ schwacher KI “ oder „schmaler KI“ auch als „starke KI“, „volle KI“ oder synthetische Intelligenz bezeichnet . (Akademische Quellen reservieren "starke KI", um sich auf Maschinen zu beziehen, die Bewusstsein erfahren können.)

Siehe auch

Anmerkungen

Verweise