Geschichte der Informatik - History of computing

Die Geschichte des Rechnens ist länger als die Geschichte der Computerhardware und der modernen Computertechnologie und umfasst die Geschichte der Methoden für Stift und Papier oder für Kreide und Schiefer, mit oder ohne Hilfe von Tabellen.

Betongeräte

Digital Computing ist eng mit der Darstellung von Zahlen verbunden . Aber lange bevor Abstraktionen wie die Zahl aufkamen, gab es mathematische Konzepte, die den Zwecken der Zivilisation dienten. Diese Konzepte sind in konkreten Praktiken implizit wie:

Zahlen

Schließlich wurde das Konzept der Zahlen konkret und vertraut genug, um das Zählen zu ermöglichen, manchmal mit Sing-Song-Mnemonik, um anderen Sequenzen beizubringen . Alle bekannten menschlichen Sprachen, mit Ausnahme der Piraha-Sprache , haben Wörter für mindestens "eins" und "zwei" , und sogar einige Tiere wie die Amsel können eine überraschende Anzahl von Gegenständen unterscheiden.

Fortschritte im Zahlensystem und in der mathematischen Notation führten schließlich zur Entdeckung mathematischer Operationen wie Addition, Subtraktion, Multiplikation, Division, Quadrierung, Quadratwurzel und so weiter. Schließlich wurden die Operationen formalisiert, und die Konzepte über die Operationen wurden gut genug verstanden, um formell erklärt und sogar bewiesen zu werden . Siehe zum Beispiel Euklids Algorithmus zum Finden des größten gemeinsamen Teilers zweier Zahlen.

Im Hochmittelalter hatte das positionelle hindu-arabische Zahlensystem Europa erreicht , das eine systematische Berechnung von Zahlen ermöglichte. Während dieser Zeit ermöglichte die Darstellung einer Rechnung auf Papier tatsächlich die Berechnung mathematischer Ausdrücke und die tabellarische Darstellung mathematischer Funktionen wie der Quadratwurzel und des gemeinsamen Logarithmus (zur Verwendung bei Multiplikation und Division) und der trigonometrischen Funktionen . Zur Zeit von Isaac Newtons Forschung war Papier oder Pergament eine wichtige Rechenressource, und selbst in unserer heutigen Zeit bedeckten Forscher wie Enrico Fermi zufällige Papierfetzen mit Berechnungen, um ihre Neugier auf eine Gleichung zu befriedigen. Sogar in der Zeit der programmierbaren Taschenrechner berechnete Richard Feynman ohne zu zögern alle Schritte, die den Speicher der Taschenrechner überfluteten, von Hand, nur um die Antwort zu erfahren; 1976 hatte Feynman einen HP-25- Rechner mit einer Kapazität von 49 Programmschritten gekauft; wenn eine Differentialgleichung mehr als 49 Schritte zum Lösen erforderte, konnte er seine Berechnungen einfach von Hand fortsetzen.

Frühe Berechnung

Mathematische Aussagen müssen nicht nur abstrakt sein; Wenn eine Aussage mit tatsächlichen Zahlen illustriert werden kann, können die Zahlen kommuniziert werden und eine Gemeinschaft kann entstehen. Dies ermöglicht die wiederholbaren, überprüfbaren Aussagen, die das Markenzeichen von Mathematik und Naturwissenschaften sind. Diese Art von Aussagen gibt es seit Tausenden von Jahren und über mehrere Zivilisationen hinweg, wie unten gezeigt:

Das früheste bekannte Werkzeug zur Verwendung bei der Berechnung ist der sumerische Abakus , und es wurde angenommen, dass er in Babylon c erfunden wurde . 2700-2300 v. Chr. Seine ursprüngliche Nutzungsart bestand in Linien, die mit Kieselsteinen in Sand gezeichnet wurden. Abaci, modernerer Bauart, werden auch heute noch als Berechnungswerkzeuge verwendet. Dies war der erste bekannte Taschenrechner und das fortschrittlichste Berechnungssystem, das bis heute bekannt war - Archimedes um 2.000 Jahre voraus.

In c. 1050–771 v. Chr. wurde der nach Süden gerichtete Streitwagen im alten China erfunden . Es war der erste bekannte Getriebemechanismus , der ein Differentialgetriebe verwendet , das später in Analogcomputern verwendet wurde . Die Chinesen erfanden auch einen komplexeren Abakus aus dem 2. Jahrhundert v. Chr., der als chinesischer Abakus bekannt ist .

Im 5. Jahrhundert v. Chr. Im alten Indien formulierte der Grammatiker Pāṇini die Grammatik des Sanskrit in 3959 Regeln, die als Ashtadhyayi bekannt waren und hochgradig systematisiert und technisch waren. Panini verwendete Metaregeln, Transformationen und Rekursionen .

Im 3. Jahrhundert v. Chr. benutzte Archimedes das mechanische Gleichgewichtsprinzip (siehe Archimedes Palimpsest#Mathematical content ), um mathematische Probleme zu berechnen, wie die Anzahl der Sandkörner im Universum ( Der Sandrechner ), die auch eine rekursive Notation für Zahlen (zB die Myriade Myriad ).

Der Antikythera-Mechanismus gilt als der früheste bekannte mechanische Analogcomputer. Es wurde entwickelt, um astronomische Positionen zu berechnen. Es wurde 1901 im Antikythera- Wrack vor der griechischen Insel Antikythera zwischen Kythera und Kreta entdeckt und auf ca. 100 v. Chr. datiert .

Mechanische Analogrechner Geräte erschien wieder tausend Jahre später in der mittelalterlichen islamischen Welt und wurden von entwickelten muslimischen Astronomen , wie die mechanische Getriebe Astrolabium von Abū Rayhan al-Biruni und der Torquetum von Jabir ibn Aflah . Laut Simon Singh , muslimischer Mathematiker auch wichtige Fortschritte in gemacht Kryptographie , wie die Entwicklung von Kryptoanalyse und Frequenzanalyse durch Alkindus . Programmierbare Maschinen wurden auch von erfundenem Muslime Ingenieuren , wie die automatischen Flötenspieler von den banū mūsā Brüder, und Al-Jazari ‚s humanoiden Roboter und Schloßuhr , der als die ersten sein , programmierbaren Analogrechner.

Im Mittelalter versuchten mehrere europäische Philosophen, analoge Computergeräte herzustellen. Beeinflusst von den Arabern und der Scholastik widmete der mallorquinische Philosoph Ramon Llull (1232–1315) einen großen Teil seines Lebens der Definition und dem Entwurf mehrerer logischer Maschinen , die durch die Kombination einfacher und unbestreitbarer philosophischer Wahrheiten alles mögliche Wissen produzieren konnten. Diese Maschinen wurden nie wirklich gebaut, da sie eher ein Gedankenexperiment waren , um auf systematische Weise neues Wissen zu erzeugen; Obwohl sie einfache logische Operationen durchführen konnten, brauchten sie immer noch einen Menschen zur Interpretation der Ergebnisse. Außerdem fehlte ihnen eine vielseitige Architektur, jede Maschine diente nur ganz konkreten Zwecken. Trotzdem hatte Llulls Werk einen starken Einfluss auf Gottfried Leibniz (frühes 18. Jahrhundert), der seine Ideen weiterentwickelte und daraus mehrere Rechenwerkzeuge baute.

Als John Napier im frühen 17. Jahrhundert Logarithmen für Rechenzwecke entdeckte, folgte eine Zeit beträchtlicher Fortschritte von Erfindern und Wissenschaftlern bei der Herstellung von Rechenwerkzeugen. Der Höhepunkt dieser frühen Ära des formalen Rechnens ist in der Differenz-Engine und ihrem Nachfolger, der analytischen Engine (die nie vollständig konstruiert wurde, aber im Detail entworfen wurde), beide von Charles Babbage zu sehen . Der analytische Motor kombinierte Konzepte aus seiner Arbeit und denen anderer, um ein Gerät zu schaffen, das, wenn es wie geplant konstruiert wäre, viele Eigenschaften eines modernen elektronischen Computers besessen hätte. Zu diesen Eigenschaften gehören Funktionen wie ein interner "Scratch-Speicher", der dem RAM entspricht , mehrere Ausgabeformen, einschließlich einer Glocke, eines Graphenplotters und eines einfachen Druckers, und ein programmierbarer "harter" Speicher für Lochkarten, der modifiziert werden kann sowie lesen. Der entscheidende Fortschritt, den Babbages Geräte gegenüber den vor ihm entwickelten, hatten, bestand darin, dass jede Komponente des Geräts unabhängig vom Rest der Maschine war, ähnlich wie die Komponenten eines modernen elektronischen Computers. Dies war ein grundlegender Gedankenwandel; bisherige Rechengeräte dienten nur einem einzigen Zweck, mussten aber bestenfalls zerlegt und neu konfiguriert werden, um ein neues Problem zu lösen. Babbages Geräte könnten umprogrammiert werden, um neue Probleme durch die Eingabe neuer Daten zu lösen und auf frühere Berechnungen innerhalb derselben Reihe von Anweisungen zu reagieren. Ada Lovelace führte dieses Konzept noch einen Schritt weiter, indem sie ein Programm für die analytische Engine zur Berechnung von Bernoulli-Zahlen erstellte , eine komplexe Berechnung, die einen rekursiven Algorithmus erfordert. Dies gilt als das erste Beispiel für ein echtes Computerprogramm, eine Reihe von Anweisungen, die auf Daten einwirken, die nicht vollständig bekannt sind, bis das Programm ausgeführt wird. Nach Babbage, obwohl er sich seiner früheren Arbeit nicht bewusst war, veröffentlichte Percy Ludgate 1909 das zweite der beiden einzigen Designs für mechanische Analysemaschinen in der Geschichte.

Mehrere Beispiele für analoge Berechnungen haben sich bis in die jüngste Zeit erhalten. Ein Planimeter ist ein Gerät, das Integrale macht, wobei der Abstand als analoge Größe verwendet wird. Bis in die 1980er Jahre nutzten HLK- Anlagen Luft sowohl als analoge Größe als auch als Stellglied. Im Gegensatz zu modernen Digitalcomputern sind Analogcomputer nicht sehr flexibel und müssen manuell umkonfiguriert (dh umprogrammiert) werden, um sie von der Bearbeitung eines Problems auf ein anderes umzuschalten. Analoge Computer hatten gegenüber frühen digitalen Computern den Vorteil, dass sie zur Lösung komplexer Probleme unter Verwendung von Verhaltensanalogen verwendet werden konnten, während die frühesten Versuche mit digitalen Computern ziemlich begrenzt waren.

Ein Smith-Diagramm ist ein bekanntes Nomogramm .

Da Computer in dieser Zeit selten waren, wurden die Lösungen oft hart codiert in Papier Formen wie Nomogramme , die dann analog Lösungen für diese Probleme, wie beispielsweise die Verteilung von Drücken und Temperaturen in einem Heizungssystem erzeugen konnten.

Digitale elektronische Computer

Das „Gehirn“ [Computer] könnte eines Tages auf unsere Ebene [des einfachen Volkes] herunterkommen und bei unseren Einkommensteuer- und Buchhaltungsberechnungen helfen. Aber das sind Spekulationen und davon gibt es bisher keine Anzeichen.

—  Britische Zeitung The Star in einem Nachrichtenartikel vom Juni 1949 über den EDSAC- Computer, lange vor der Ära der Personalcomputer.

Keines der frühen Computergeräte waren wirklich Computer im modernen Sinne, und es bedurfte beträchtlicher Fortschritte in Mathematik und Theorie, bevor die ersten modernen Computer entworfen werden konnten.

In einem Brief von 1886 beschrieb Charles Sanders Peirce , wie logische Operationen durch elektrische Schaltkreise ausgeführt werden könnten. In den Jahren 1880-81 zeigte er, dass NOR-Gatter allein (oder alternativ NAND-Gatter allein ) verwendet werden können, um die Funktionen aller anderen Logikgatter zu reproduzieren , aber diese Arbeit darüber war bis 1933 unveröffentlicht. Der erste veröffentlichte Beweis stammte von Henry M. Sheffer im Jahr 1913, daher wird die logische NAND-Operation manchmal als Sheffer-Strich bezeichnet ; das logische NOR wird manchmal als Peirce-Pfeil bezeichnet . Folglich werden diese Gatter manchmal als universelle Logikgatter bezeichnet .

Schließlich ersetzten Vakuumröhren Relais für logische Verknüpfungen. Lee De Forests Modifikation des Fleming-Ventils im Jahr 1907 kann als Logikgatter verwendet werden. Ludwig Wittgenstein führte als Proposition 5.101 von Tractatus Logico-Philosophicus (1921) eine Version der 16- zeiligen Wahrheitstafel ein . Walther Bothe , Erfinder der Koinzidenzschaltung , erhielt 1954 den Nobelpreis für Physik für das erste moderne elektronische UND-Gatter 1924. Konrad Zuse entwarf und baute elektromechanische Logikgatter für seinen Computer Z1 (von 1935–38).

Die erste aufgezeichnete Idee, digitale Elektronik für Computer zu verwenden, war das Papier "The Use of Thyratrons for High Speed ​​Automatic Counting of Physical Phenomena" von CE Wynn-Williams aus dem Jahr 1931 . Von 1934 bis 1936 veröffentlichte der NEC- Ingenieur Akira Nakashima eine Reihe von Artikeln, die die Theorie von Schaltkreisen vorstellten , wobei er digitale Elektronik für boolesche algebraische Operationen verwendet und Claude Shannons bahnbrechende 1938er Arbeit " A Symbolic Analysis of Relay and Switching Circuits " beeinflusste.

Im Jahr 1935 schrieb Alan Turing seine wegweisende Arbeit On Computable Numbers, mit einer Anwendung auf das Entscheidungsproblem, in der er Berechnungen in Bezug auf ein eindimensionales Speicherband modellierte, was zur Idee der universellen Turing-Maschine und Turing-vollständigen Systemen führte.

Der erste digitale elektronische Computer wurde im Zeitraum April 1936 - Juni 1939 in der IBM Patentabteilung, Endicott, New York von Arthur Halsey Dickinson entwickelt. In diesem Computer stellte IBM erstmals ein Rechengerät mit Tastatur, Prozessor und elektronischer Ausgabe (Display) vor. Konkurrent von IBM war der digitale elektronische Computer NCR3566, der in NCR, Dayton, Ohio von Joseph Desch und Robert Mumma im Zeitraum April 1939 - August 1939 entwickelt wurde. Die IBM- und NCR-Maschinen waren dezimal und führten Addition und Subtraktion im binären Positionscode aus.

Im Dezember 1939 stellten John Atanasoff und Clifford Berry ihr experimentelles Modell fertig, um das Konzept des Atanasoff-Berry-Computers zu beweisen . Dieses experimentelle Modell ist binär, führt Addition und Subtraktion im oktalen Binärcode aus und ist das erste binäre digitale elektronische Rechengerät. Der Atanasoff-Berry-Computer sollte lineare Gleichungssysteme lösen, war jedoch nicht programmierbar und wurde nie fertiggestellt. Der 1941 vom deutschen Erfinder Konrad Zuse gebaute Computer Z3 war die erste programmierbare, vollautomatische Rechenmaschine, jedoch nicht elektronisch.

Während des Zweiten Weltkriegs wurde ballistisches Rechnen von Frauen durchgeführt, die als "Computer" angeheuert wurden. Der Begriff Computer bezog sich bis 1945 hauptsächlich auf Frauen (jetzt als "Bediener"), danach nahm er die moderne Definition von Maschinen an, die er heute besitzt.

Der ENIAC (Electronic Numerical Integrator And Computer) war der erste elektronische Allzweckcomputer, der 1946 der Öffentlichkeit vorgestellt wurde. Er war Turing-vollständig, digital und konnte umprogrammiert werden, um eine ganze Reihe von Computerproblemen zu lösen. Frauen implementierten die Programmierung für Maschinen wie die ENIAC und Männer erstellten die Hardware.

Das Manchester Baby war der erste elektronische Computer mit gespeichertem Programm . Es wurde an der Victoria University of Manchester von Frederic C. Williams , Tom Kilburn und Geoff Tootill gebaut und führte sein erstes Programm am 21. Juni 1948 durch.

William Shockley , John Bardeen und Walter Brattain von Bell Labs erfanden 1947 den ersten funktionierenden Transistor , den Punktkontakttransistor , gefolgt von dem Bipolartransistor 1948. An der University of Manchester 1953 ein Team unter der Leitung von Tom Kilburn entwarf und baute den ersten Transistorcomputer , den sogenannten Transistor Computer , eine Maschine, die die neu entwickelten Transistoren anstelle von Ventilen verwendet. Der erste speicherprogrammierbare Transistorcomputer war der ETL Mark III, der von 1954 bis 1956 vom japanischen Electrotechnical Laboratory entwickelt wurde. Frühe Sperrschichttransistoren waren jedoch relativ sperrige Geräte, die in Massenproduktion schwer herzustellen waren , was sie auf eine Anzahl beschränkte von spezialisierten Anwendungen.

Im Jahr 1954 wurden 95 % der in Betrieb befindlichen Computer für technische und wissenschaftliche Zwecke verwendet.

Persönliche Computer

Der Metall-Oxid-Silizium-Feldeffekttransistor (MOSFET), auch bekannt als MOS-Transistor, wurde 1959 von Mohamed Atalla und Dawon Kahng in den Bell Labs erfunden . Es war der erste wirklich kompakte Transistor, der miniaturisiert und in Massenproduktion hergestellt werden konnte für vielfältige Einsatzmöglichkeiten. Der MOSFET machte es möglich, hochdichte integrierte Schaltungschips zu bauen . Der MOSFET führte später zur Mikrocomputerrevolution und wurde zur treibenden Kraft hinter der Computerrevolution . Der MOSFET ist der am weitesten verbreitete Transistor in Computern und der grundlegende Baustein der digitalen Elektronik .

Die 1960 von Mohamed Atalla erstmals vorgeschlagene integrierte MOS-Schaltung führte zur Erfindung des Mikroprozessors . Die integrierte Silizium-Gate- MOS-Schaltung wurde 1968 von Federico Faggin bei Fairchild Semiconductor entwickelt . Dies führte zur Entwicklung des ersten Einchip- Mikroprozessors , dem Intel 4004 . Es begann mit dem " Busicom Project" als Masatoshi Shima 's Drei-Chip - CPU - Design im Jahr 1968, bevor Sharp ' s Tadashi Sasaki eines Single-Chip - CPU - Design konzipiert, die er mit Busicom und diskutiert Intel 1968. Der Intel 4004 war dann von 1969 bis 1970 als Single-Chip-Mikroprozessor entwickelt, angeführt von Intels Federico Faggin, Marcian Hoff und Stanley Mazor und Busicoms Masatoshi Shima. Der Chip wurde hauptsächlich von Faggin mit seiner Silizium-Gate-MOS-Technologie entworfen und realisiert. Der Mikroprozessor führte zur Mikrocomputerrevolution mit der Entwicklung des Mikrocomputers , der später als Personal Computer (PC) bezeichnet wurde.

Die meisten frühen Mikroprozessoren wie Intel 8008 und Intel 8080 waren 8-Bit-Prozessoren . Texas Instruments veröffentlichte im Juni 1976 den ersten vollständig 16-Bit- Mikroprozessor, den TMS9900- Prozessor. Sie verwendeten den Mikroprozessor in den Computern TI-99/4 und TI-99/4A .

Die 1980er Jahre brachten bedeutende Fortschritte mit Mikroprozessoren, die einen großen Einfluss auf die Ingenieurwissenschaften und andere Wissenschaften hatten. Der Mikroprozessor Motorola 68000 hatte eine Verarbeitungsgeschwindigkeit, die den anderen damals verwendeten Mikroprozessoren weit überlegen war. Aus diesem Grund ermöglichte es ein neuer, schnellerer Mikroprozessor, dass die neueren Mikrocomputer , die danach kamen, effizienter in der Rechenleistung waren, die sie ausführen konnten. Dies wurde in der Veröffentlichung der Apple Lisa 1983 deutlich . Der Lisa war der erste PC mit einer grafischen Benutzeroberfläche (GUI) , der kommerziell verkauft wurde. Es lief auf der Motorola 68000 CPU und nutzte sowohl zwei Diskettenlaufwerke als auch eine 5-MB-Festplatte als Speicher. Die Maschine verfügte auch über 1 MB RAM , um Software von der Festplatte auszuführen, ohne die Festplatte dauerhaft neu zu lesen. Nach dem Verkaufsausfall der Lisa brachte Apple seinen ersten Macintosh- Computer auf den Markt, der noch auf dem Mikroprozessor Motorola 68000 läuft, aber nur mit 128 KB RAM, einem Diskettenlaufwerk und keiner Festplatte ausgestattet ist, um den Preis zu senken.

In den späten 1980er und frühen 1990er Jahren sehen wir weitere Fortschritte bei Computern, die für tatsächliche Rechenzwecke nützlicher werden. 1989 brachte Apple den Macintosh Portable auf den Markt , er wog 7,3 kg und war mit 7.300 US-Dollar extrem teuer. Bei der Markteinführung war es einer der leistungsstärksten Laptops auf dem Markt, aber aufgrund des Preises und des Gewichts hatte es keinen großen Erfolg und wurde nur zwei Jahre später eingestellt. Im selben Jahr stellte Intel den Supercomputer Touchstone Delta vor , der über 512 Mikroprozessoren verfügte. Dieser technologische Fortschritt war sehr bedeutend, da er als Modell für einige der schnellsten Multiprozessorsysteme der Welt verwendet wurde. Es wurde sogar als Prototyp für Caltech-Forscher verwendet, die das Modell für Projekte wie die Echtzeitverarbeitung von Satellitenbildern und die Simulation von molekularen Modellen für verschiedene Forschungsbereiche nutzten.

Supercomputer

In Bezug auf Supercomputing war der erste weithin anerkannte Supercomputer die Control Data Corporation (CDC) 6600, die 1964 von Seymour Cray gebaut wurde . Seine maximale Geschwindigkeit betrug 40 MHz oder 3 Millionen Gleitkommaoperationen pro Sekunde ( FLOPS ). Der CDC 6600 wurde 1969 durch den CDC 7600 ersetzt ; Obwohl seine normale Taktrate nicht höher war als die des 6600, war der 7600 aufgrund seiner Spitzentaktrate, die etwa 30-mal schneller war als die des 6600, immer noch schneller. Obwohl CDC führend bei Supercomputern war, war ihre Beziehung zu Seymour Cray ( die sich bereits verschlechtert hatte) vollständig zusammengebrochen. im Jahr 1972, verließ Cray CDC und begann seine eigene Firma Cray Research Inc . Mit Unterstützung von Investoren der Wall Street, einer Branche, die vom Kalten Krieg angetrieben wurde, und ohne die Einschränkungen, die er bei CDC hatte, schuf er den Cray-1- Supercomputer. Mit einer Taktrate von 80 MHz oder 136 MegaFLOPS hat sich Cray in der Computerwelt einen Namen gemacht. 1982 produzierte Cray Research den mit Multiprocessing ausgestatteten Cray X-MP und brachte 1985 den Cray-2 auf den Markt , der den Trend des Multiprocessing fortsetzte und mit 1,9 GigaFLOPS getaktet wurde. Cray Research entwickelte 1988 den Cray Y-MP , hatte jedoch danach Schwierigkeiten, weiterhin Supercomputer zu produzieren. Dies lag vor allem daran, dass der Kalte Krieg zu Ende war und die Nachfrage nach modernster Computertechnik von Hochschulen und der Regierung drastisch zurückging und die Nachfrage nach Mikroprozessoren stieg.

Heute werden Supercomputer immer noch von Regierungen der Welt und Bildungseinrichtungen für Berechnungen wie Simulationen von Naturkatastrophen, Suche nach genetischen Varianten innerhalb einer Bevölkerung im Zusammenhang mit Krankheiten und mehr verwendet. Ab November 2020 ist Fugaku der schnellste Supercomputer .

Navigation und Astronomie

Ausgehend von bekannten Spezialfällen kann die Berechnung von Logarithmen und trigonometrischen Funktionen durch Nachschlagen von Zahlen in einer mathematischen Tabelle und Interpolation zwischen bekannten Fällen durchgeführt werden. Bei ausreichend kleinen Unterschieden war diese lineare Operation genau genug für den Einsatz in der Navigation und Astronomie im Zeitalter der Erforschung . Die Verwendung der Interpolation hat sich in den letzten 500 Jahren weiterentwickelt: Im 20. Jahrhundert haben Leslie Comrie und WJ Eckert die Verwendung der Interpolation in Zahlentabellen für die Lochkartenberechnung systematisiert.

Wettervorhersage

Die numerische Lösung von Differentialgleichungen, insbesondere der Navier-Stokes-Gleichungen, war mit Lewis Fry Richardsons numerischem Ansatz zur Lösung von Differentialgleichungen ein wichtiger Anreiz für die Berechnung . Die erste computergestützte Wettervorhersage wurde 1950 von einem Team durchgeführt, das aus den amerikanischen Meteorologen Jule Charney , Philip Thompson, Larry Gates und dem norwegischen Meteorologen Ragnar Fjørtoft , dem angewandten Mathematiker John von Neumann und der ENIAC- Programmiererin Klara Dan von Neumann bestand . Bis heute werden einige der leistungsfähigsten Computersysteme der Erde für Wettervorhersagen verwendet .

Symbolische Berechnungen

Mit dem Ende der 1960er Jahre konnte, Computersysteme führen symbolische algebraische Manipulationen gut genug College-Ebene passieren Kalkül Kurse.

Wichtige Frauen und ihre Beiträge

Frauen sind in MINT-Bereichen im Vergleich zu ihren männlichen Kollegen oft unterrepräsentiert . In der Neuzeit vor den 1960er Jahren wurde die Computerarbeit weithin als "Frauenarbeit" angesehen, da sie mit der Bedienung von Tabelliermaschinen und anderen mechanischen Büroarbeiten in Verbindung gebracht wurde. Die Genauigkeit dieser Assoziation variierte von Ort zu Ort. In Amerika erinnerte sich Margaret Hamilton an eine von Männern dominierte Umgebung, während Elsie Shutt sich überraschte, dass sogar die Hälfte der Computerbediener bei Raytheon Männer waren. Maschinenführer in Großbritannien waren bis in die frühen 1970er Jahre überwiegend Frauen. Als sich diese Wahrnehmungen änderten und Computer zu einem hochrangigen Beruf wurden, wurde das Feld mehr von Männern dominiert. Professor Janet Abbate schreibt in ihrem Buch Recoding Gender :

Dennoch waren Frauen in den frühen Jahrzehnten der Informatik eine bedeutende Rolle. Sie bildeten die Mehrheit der ersten Computerprogrammierer während des Zweiten Weltkriegs; sie bekleideten verantwortungsvolle und einflussreiche Positionen in der frühen Computerindustrie; und sie waren in einer Zahl beschäftigt, die zwar eine kleine Minderheit darstellte, aber im Vergleich zur Vertretung von Frauen in vielen anderen Bereichen der Natur- und Ingenieurwissenschaften günstig war. Einige Programmiererinnen der 1950er und 1960er Jahre hätten sich über die Vorstellung lustig gemacht, dass Programmieren jemals als männlicher Beruf angesehen werden würde, doch die Erfahrungen und Beiträge dieser Frauen wurden allzu schnell vergessen.

Einige bemerkenswerte Beispiele für Frauen in der Geschichte der Informatik sind:

Siehe auch

Verweise

Externe Links

Links zur britischen Geschichte