Superintelligenz: Wege, Gefahren, Strategien -Superintelligence: Paths, Dangers, Strategies

Superintelligenz:
Wege, Gefahren, Strategien
Superintelligenz.jpg
Erste Ausgabe
Autor Nick Bostrom
Land Vereinigtes Königreich
Sprache Englisch
Gegenstand Künstliche Intelligenz
Genre Philosophie , Populärwissenschaft
Herausgeber Oxford University Press
Veröffentlichungsdatum
3. Juli 2014 (Großbritannien)
1. September 2014 (USA)
Medientyp Print, E-Book, Hörbuch
Seiten 352 S.
ISBN 978-0199678112
Vorangestellt Globale Katastrophenrisiken 

Superintelligence: Paths, Dangers, Strategies ist ein 2014 erschienenes Buch des schwedischen Philosophen Nick Bostrom von der University of Oxford . Sie argumentiert, dass diese neue Superintelligenz den Menschen als dominante Lebensform auf der Erde ersetzen könnte, wenn Maschinengehirne menschliche Gehirne an allgemeiner Intelligenz übertreffen. Ausreichend intelligente Maschinen könnten ihre eigenen Fähigkeiten schneller verbessern als menschliche Informatiker, und das Ergebnis könnte eine existenzielle Katastrophe für den Menschen sein.

Bostroms Buch wurde in viele Sprachen übersetzt.

Zusammenfassung

Es ist nicht bekannt, ob künstliche Intelligenz auf menschlicher Ebene in einigen Jahren, später in diesem Jahrhundert oder erst in zukünftigen Jahrhunderten, auf den Markt kommen wird. Ungeachtet des anfänglichen Zeitrahmens, sobald die maschinelle Intelligenz auf menschlicher Ebene entwickelt ist, würde höchstwahrscheinlich überraschend schnell ein "superintelligentes" System folgen, das "die kognitive Leistung des Menschen in praktisch allen interessierenden Bereichen bei weitem übertrifft". Eine solche Superintelligenz wäre sehr schwer zu kontrollieren oder zu bändigen.

Während die ultimativen Ziele von Superintelligenz sehr unterschiedlich sein können, generiert eine funktionale Superintelligenz spontan als natürliche Teilziele „ instrumentelle Ziele “ wie Selbsterhaltung und zielinhaltliche Integrität, kognitive Verbesserung und Ressourcenerwerb. Zum Beispiel könnte ein Agent, dessen einziges Endziel darin besteht, die Riemann-Hypothese (eine berühmte ungelöste, mathematische Vermutung ) zu lösen , ein Unterziel schaffen und darauf reagieren, die gesamte Erde in eine Form von Computronium (hypothetisches Material, das für Berechnungen optimiert ist) umzuwandeln , um dies zu unterstützen die Berechnung. Die Superintelligenz würde proaktiv allen Versuchen von außen widerstehen, die Superintelligenz auszuschalten oder auf andere Weise ihre Teilzielerfüllung zu verhindern. Um eine solche existenzielle Katastrophe zu verhindern , ist es notwendig, das „ KI-Steuerungsproblem “ für die erste Superintelligenz erfolgreich zu lösen . Die Lösung könnte darin bestehen, der Superintelligenz Ziele zu vermitteln, die mit dem menschlichen Überleben und Wohlergehen vereinbar sind. Die Lösung des Steuerungsproblems ist überraschend schwierig, da die meisten Ziele, wenn sie in maschinenimplementierbaren Code übersetzt werden, zu unvorhergesehenen und unerwünschten Konsequenzen führen.

Die Eule auf dem Buchcover spielt auf eine Analogie an, die Bostrom die "Unvollendete Fabel der Spatzen" nennt. Eine Gruppe Spatzen beschließt, ein Eulenküken zu finden und es als Diener aufzuziehen. Sie stellen sich eifrig vor, "wie einfach das Leben wäre", wenn sie eine Eule hätten, die beim Nestbau hilft, die Spatzen verteidigt und sie für ein Leben in Muße befreit. Die Spatzen beginnen die schwierige Suche nach einem Eulenei; nur "Scronkfinkle", ein "einäugiger Spatz mit ärgerlichem Temperament", legt nahe, über die komplizierte Frage nachzudenken, wie man die Eule zähmt, bevor man sie "in unsere Mitte" bringt. Die anderen Spatzen widersprechen; die Suche nach einem Eulenei wird schon schwer genug sein: "Warum nicht erst die Eule holen und später die Feinheiten ausarbeiten?" Bostrom sagt, dass "Es ist nicht bekannt, wie die Geschichte endet", aber er widmet sein Buch Scronkfinkle.

Rezeption

Das Buch belegte Platz 17 auf der Liste der meistverkauften Wissenschaftsbücher der New York Times für August 2014. Im selben Monat machte der Wirtschaftsmagnat Elon Musk Schlagzeilen, indem er dem Buch zustimmte, dass künstliche Intelligenz potenziell gefährlicher ist als Atomwaffen. Bostroms Arbeit zur Superintelligenz hat auch Bill Gates ' Sorge um die existenziellen Risiken beeinflusst, denen die Menschheit im kommenden Jahrhundert ausgesetzt ist. In einem Interview mit Baidus CEO Robin Li im März 2015 sagte Gates, dass er Superintelligence „sehr empfehlen“ würde . Die Philosophen Peter Singer und Derek Parfit haben es laut New Yorker "als bedeutendes Werk aufgenommen".

Der Wissenschaftsredakteur der Financial Times stellte fest, dass Bostroms Schrift „manchmal in eine undurchsichtige Sprache übergeht, die seinen Hintergrund als Philosophieprofessor verrät“, aber überzeugend zeigt, dass das Risiko durch Superintelligenz groß genug ist, dass die Gesellschaft jetzt darüber nachdenken sollte, wie man zukünftige maschinelle Intelligenz ausstatten kann mit positiven Werten. Eine Rezension in The Guardian wies darauf hin, dass "selbst die bisher fortschrittlichsten Maschinen nur bedingt intelligent sind" und dass "die Erwartungen, dass die KI die menschliche Intelligenz bald überholen würde, erstmals in den 1960er Jahren zunichte gemacht wurden", findet jedoch eine Gemeinsamkeit mit Bostrom mit dem Hinweis, dass "man nicht gut beraten wäre, die Möglichkeit ganz zu verwerfen".

Einige von Bostroms Kollegen meinen, dass ein Atomkrieg eine größere Bedrohung für die Menschheit darstelle als die Superintelligenz, ebenso wie die Zukunftsaussichten der Waffenisierung der Nano- und Biotechnologie . The Economist erklärte, dass "Bostrom gezwungen ist, einen Großteil des Buches damit zu verbringen, Spekulationen zu diskutieren, die auf plausiblen Vermutungen basieren ... aber das Buch ist nichtsdestotrotz wertvoll. Die Auswirkungen der Einführung einer zweiten intelligenten Spezies auf die Erde sind weitreichend genug, um gründliches Nachdenken zu verdienen. auch wenn die Aussicht, dies tatsächlich zu tun, in weiter Ferne erscheint." Ronald Bailey schrieb in der libertären Reason, dass Bostrom ein starkes Argument dafür ist, dass die Lösung des KI-Steuerungsproblems die „wesentliche Aufgabe unserer Zeit“ ist. Laut Tom Chivers von The Daily Telegraph ist das Buch schwer zu lesen, aber dennoch lohnend. Ein Rezensent im Journal of Experimental & Theoretical Artificial Intelligence brach mit anderen, indem er feststellte, dass der Schreibstil des Buches klar ist, und lobte das Buch dafür, dass es "übermäßigen technischen Jargon" vermeidet. Ein Rezensent in Philosophy beurteilte Superintelligence als "realistischer" als Ray Kurzweils The Singularity Is Near .

Siehe auch

Verweise