Speicher mit wahlfreiem Zugriff -Random-access memory

Beispiel für beschreibbaren flüchtigen Arbeitsspeicher: Synchrone dynamische RAM - Module , die hauptsächlich als Hauptspeicher in Personal Computern , Workstations und Servern verwendet werden .
8 GB DDR3 - RAM - Stick mit weißem Kühlkörper

Direktzugriffsspeicher ( RAM ; / r æ m / ) ist eine Form von Computerspeicher , der in beliebiger Reihenfolge gelesen und geändert werden kann und normalerweise zum Speichern von Arbeitsdaten und Maschinencode verwendet wird . Ein Speicher mit wahlfreiem Zugriff ermöglicht das Lesen oder Schreiben von Datenelementen in fast der gleichen Zeit, unabhängig vom physischen Speicherort der Daten im Speicher, im Gegensatz zu anderen Datenspeichermedien mit direktem Zugriff (wie Festplatten , CD- RWs , DVD-RWs und die älteren Magnetbänder und Trommelspeicher ), bei denen die zum Lesen und Schreiben von Datenelementen erforderliche Zeit aufgrund mechanischer Einschränkungen wie Medienrotationsgeschwindigkeiten und Armbewegungen je nach ihrer physischen Position auf dem Aufzeichnungsmedium erheblich variiert.

Der RAM enthält eine Multiplex- und Demultiplexschaltung , um die Datenleitungen mit dem adressierten Speicher zum Lesen oder Schreiben des Eintrags zu verbinden. Normalerweise wird über dieselbe Adresse auf mehr als ein Speicherbit zugegriffen, und RAM-Geräte haben oft mehrere Datenleitungen und werden als "8-Bit"- oder "16-Bit"-Geräte usw. bezeichnet.

In der heutigen Technologie nimmt der Direktzugriffsspeicher die Form von Chips mit integrierter Schaltung (IC) mit MOS- (Metall-Oxid-Halbleiter) -Speicherzellen an . RAM ist normalerweise mit flüchtigen Speichertypen (wie z. B. Modulen mit dynamischem Direktzugriffsspeicher (DRAM) ) verbunden, bei denen gespeicherte Informationen verloren gehen, wenn die Stromversorgung unterbrochen wird, obwohl auch nichtflüchtiger RAM entwickelt wurde. Es gibt andere Arten von nichtflüchtigen Speichern , die einen wahlfreien Zugriff für Leseoperationen ermöglichen, aber entweder keine Schreiboperationen zulassen oder andere Arten von Beschränkungen haben. Dazu gehören die meisten ROM -Typen und eine Art Flash-Speicher namens NOR-Flash .

Die zwei Haupttypen von flüchtigen Halbleiterspeichern mit wahlfreiem Zugriff sind statische Speicher mit wahlfreiem Zugriff (SRAM) und dynamische Speicher mit wahlfreiem Zugriff (DRAM). Die kommerzielle Verwendung von Halbleiter-RAM geht auf das Jahr 1965 zurück, als IBM den SP95-SRAM-Chip für ihren Computer System/360 Model 95 einführte und Toshiba DRAM-Speicherzellen für seinen elektronischen Taschenrechner Toscal BC-1411 verwendete , die beide auf Bipolartransistoren basierten . Kommerzielle MOS-Speicher, basierend auf MOS-Transistoren , wurden in den späten 1960er Jahren entwickelt und sind seitdem die Basis für alle kommerziellen Halbleiterspeicher. Der erste kommerzielle DRAM-IC-Chip, der Intel 1103 , wurde im Oktober 1970 eingeführt. Der synchrone dynamische Direktzugriffsspeicher (SDRAM) debütierte später mit dem Samsung KM48SL2000-Chip im Jahr 1992.

Geschichte

Diese IBM Tabelliermaschinen aus der Mitte der 1930er Jahre verwendeten mechanische Zähler , um Informationen zu speichern
1 - Megabit (Mbit)-Chip, eines der letzten Modelle, das 1989 vom VEB Carl Zeiss Jena entwickelt wurde

Frühe Computer verwendeten Relais , mechanische Zähler oder Verzögerungsleitungen für Hauptspeicherfunktionen. Ultraschall-Verzögerungsleitungen waren serielle Geräte , die Daten nur in der Reihenfolge wiedergeben konnten, in der sie geschrieben wurden. Der Trommelspeicher konnte mit relativ geringen Kosten erweitert werden, aber ein effizienter Abruf von Speicherelementen erforderte Kenntnisse über das physikalische Layout der Trommel, um die Geschwindigkeit zu optimieren. Latches, die aus Vakuumröhren- Trioden und später aus diskreten Transistoren gebaut wurden, wurden für kleinere und schnellere Speicher wie Register verwendet. Solche Register waren relativ groß und zu kostspielig, um sie für große Datenmengen zu verwenden; im Allgemeinen könnten nur wenige Dutzend oder wenige Hundert Bits eines solchen Speichers bereitgestellt werden.

Die erste praktische Form eines Direktzugriffsspeichers war ab 1947 die Williams-Röhre . Sie speicherte Daten als elektrisch geladene Punkte auf der Vorderseite einer Kathodenstrahlröhre . Da der Elektronenstrahl der CRT die Flecken auf der Röhre in beliebiger Reihenfolge lesen und schreiben konnte, war der Speicher ein wahlfreier Zugriff. Die Kapazität der Williams-Röhre betrug einige hundert bis etwa tausend Bits, aber sie war viel kleiner, schneller und energieeffizienter als die Verwendung einzelner Vakuumröhren-Latches. Die Williams-Röhre wurde an der Universität von Manchester in England entwickelt und lieferte das Medium, auf dem das erste elektronisch gespeicherte Programm im Manchester Baby -Computer implementiert wurde, der am 21. Juni 1948 erstmals erfolgreich ein Programm ausführte. Tatsächlich eher als der Williams-Röhrenspeicher Das Baby wurde für das Baby entwickelt und war ein Testbett , um die Zuverlässigkeit des Gedächtnisses zu demonstrieren.

Magnetkernspeicher wurden 1947 erfunden und bis Mitte der 1970er Jahre entwickelt. Es wurde zu einer weit verbreiteten Form von Direktzugriffsspeichern, die auf einer Anordnung magnetisierter Ringe beruhen. Durch Ändern der Richtung der Magnetisierung jedes Rings könnten Daten mit einem pro Ring gespeicherten Bit gespeichert werden. Da jeder Ring eine Kombination von Adressdrähten hatte, um ihn auszuwählen und zu lesen oder zu schreiben, war der Zugriff auf jeden Speicherplatz in beliebiger Reihenfolge möglich. Magnetkernspeicher waren die Standardform von Computerspeichersystemen , bis sie in den frühen 1970er Jahren durch Festkörper- MOS - Halbleiterspeicher ( Metall-Oxid-Silizium ) in integrierten Schaltkreisen (ICs) ersetzt wurden.

Vor der Entwicklung integrierter Nur-Lese-Speicher (ROM)-Schaltungen wurde ein permanenter (oder Nur-Lese- )Speicher mit wahlfreiem Zugriff häufig unter Verwendung von Diodenmatrizen konstruiert, die von Adressdecodern oder speziell gewickelten Kernseil-Speicherebenen angesteuert wurden .

Halbleiterspeicher begannen in den 1960er Jahren mit Bipolarspeichern, die Bipolartransistoren verwendeten . Obwohl es die Leistung verbesserte, konnte es nicht mit dem niedrigeren Preis von Magnetkernspeichern konkurrieren.

MOS-RAM

Die Erfindung des MOSFET (Metalloxid-Halbleiter-Feldeffekttransistor), auch bekannt als MOS-Transistor, durch Mohamed M. Atalla und Dawon Kahng bei Bell Labs im Jahr 1959 führte zur Entwicklung von Metalloxid-Halbleitern (MOS )-Speicher von John Schmidt bei Fairchild Semiconductor im Jahr 1964. Neben der höheren Leistung war der MOS - Halbleiterspeicher billiger und verbrauchte weniger Strom als Magnetkernspeicher. Die Entwicklung der MOS-IC-Technologie ( Silicon-Gate MOS Integrated Circuit ) durch Federico Faggin bei Fairchild im Jahr 1968 ermöglichte die Produktion von MOS - Speicherchips . MOS-Speicher überholten Magnetkernspeicher als vorherrschende Speichertechnologie in den frühen 1970er Jahren.

Ein integrierter bipolarer statischer Direktzugriffsspeicher (SRAM) wurde 1963 von Robert H. Norman bei Fairchild Semiconductor erfunden . Darauf folgte 1964 die Entwicklung von MOS SRAM durch John Schmidt bei Fairchild. SRAM wurde zu einer Alternative zum Magnetkernspeicher , benötigte aber sechs MOS-Transistoren für jedes Datenbit . Die kommerzielle Nutzung von SRAM begann 1965, als IBM den SP95-Speicherchip für das System/360-Modell 95 einführte .

Dynamischer Direktzugriffsspeicher (DRAM) ermöglichte den Ersatz einer Latch-Schaltung mit 4 oder 6 Transistoren durch einen einzelnen Transistor für jedes Speicherbit, wodurch die Speicherdichte auf Kosten der Flüchtigkeit stark erhöht wurde. Daten wurden in der winzigen Kapazität jedes Transistors gespeichert und mussten regelmäßig alle paar Millisekunden aufgefrischt werden, bevor die Ladung abfließen konnte. Der elektronische Taschenrechner Toscal BC-1411 von Toshiba , der 1965 eingeführt wurde, verwendete eine Form von kapazitivem bipolarem DRAM und speicherte 180-Bit-Daten auf diskreten Speicherzellen , die aus Germanium - Bipolartransistoren und Kondensatoren bestanden. Bipolarer DRAM bot zwar eine verbesserte Leistung gegenüber Magnetkernspeichern, konnte aber nicht mit dem niedrigeren Preis des damals dominierenden Magnetkernspeichers konkurrieren.

Die MOS-Technologie ist die Grundlage für moderne DRAMs. 1966 arbeitete Dr. Robert H. Dennard am IBM Thomas J. Watson Research Center an MOS-Speichern. Bei der Untersuchung der Eigenschaften der MOS-Technologie stellte er fest, dass sie in der Lage war, Kondensatoren zu bauen , und dass das Speichern einer Ladung oder keiner Ladung auf dem MOS-Kondensator die 1 und 0 eines Bits darstellen konnte, während der MOS-Transistor das Schreiben der Ladung steuern konnte Kondensator. Dies führte zu seiner Entwicklung einer Eintransistor-DRAM-Speicherzelle. 1967 meldete Dennard unter IBM ein Patent für eine Einzeltransistor-DRAM-Speicherzelle auf Basis der MOS-Technologie an. Der erste kommerzielle DRAM-IC-Chip war der Intel 1103 , der in einem 8 -  µm - MOS-Prozess mit einer Kapazität von 1 kbit hergestellt und 1970 auf den Markt gebracht wurde.  

Synchronous Dynamic Random-Access Memory (SDRAM) wurde von Samsung Electronics entwickelt . Der erste kommerzielle SDRAM-Chip war der Samsung KM48SL2000, der eine Kapazität von 16 Mbit hatte . Es wurde 1992 von Samsung eingeführt und 1993 in Massenproduktion hergestellt. Der erste kommerzielle DDR-SDRAM -Speicherchip ( SDRAM mit doppelter Datenrate ) war Samsungs 64- Mbit-DDR-SDRAM-Chip, der im Juni 1998 auf den Markt kam. GDDR (Grafik-DDR) ist eine Form von DDR SGRAM (Synchronous Graphics RAM), das erstmals 1998 von Samsung als 16 -Mbit-Speicherchip herausgebracht wurde.    

Typen

Die beiden weit verbreiteten Formen von modernem RAM sind statisches RAM (SRAM) und dynamisches RAM (DRAM). Im SRAM wird ein Datenbit unter Verwendung des Zustands einer Speicherzelle mit sechs Transistoren gespeichert , typischerweise unter Verwendung von sechs MOSFETs (Metall-Oxid-Halbleiter-Feldeffekttransistoren). Diese Form von RAM ist teurer in der Herstellung, aber im Allgemeinen schneller und benötigt weniger dynamische Leistung als DRAM. In modernen Computern wird SRAM oft als Cache-Speicher für die CPU verwendet . DRAM speichert ein Datenbit unter Verwendung eines Transistor- und Kondensatorpaars (typischerweise ein MOSFET bzw. MOS-Kondensator ), die zusammen eine DRAM-Zelle bilden. Der Kondensator hält eine hohe oder niedrige Ladung (1 bzw. 0), und der Transistor fungiert als Schalter, mit dem die Steuerschaltung auf dem Chip den Ladezustand des Kondensators lesen oder ändern kann. Da diese Form von Speicher kostengünstiger herzustellen ist als statisches RAM, ist sie die vorherrschende Form von Computerspeicher, die in modernen Computern verwendet wird.

Sowohl statischer als auch dynamischer RAM gelten als flüchtig , da ihr Zustand verloren geht oder zurückgesetzt wird, wenn die Stromversorgung des Systems unterbrochen wird. Im Gegensatz dazu speichert ein Nur-Lese-Speicher (ROM) Daten durch permanentes Aktivieren oder Deaktivieren ausgewählter Transistoren, so dass der Speicher nicht geändert werden kann. Beschreibbare ROM-Varianten (wie EEPROM und NOR-Flash ) teilen die Eigenschaften von ROM und RAM, sodass Daten ohne Stromversorgung bestehen bleiben und aktualisiert werden können, ohne dass eine spezielle Ausrüstung erforderlich ist. ECC-Speicher (der entweder SRAM oder DRAM sein kann) enthält spezielle Schaltungen zum Erkennen und/oder Korrigieren zufälliger Fehler (Speicherfehler) in den gespeicherten Daten unter Verwendung von Paritätsbits oder Fehlerkorrekturcodes .

Im Allgemeinen bezieht sich der Begriff RAM ausschließlich auf Festkörperspeichergeräte (entweder DRAM oder SRAM) und insbesondere auf den Hauptspeicher in den meisten Computern. Bei optischen Speichern ist der Begriff DVD-RAM etwas irreführend, da er im Gegensatz zu CD-RW oder DVD-RW vor der Wiederverwendung nicht gelöscht werden muss. Trotzdem verhält sich eine DVD-RAM ähnlich wie eine Festplatte, wenn auch etwas langsamer.

Speicherzelle

Die Speicherzelle ist der grundlegende Baustein des Computerspeichers . Die Speicherzelle ist eine elektronische Schaltung , die ein Bit binärer Information speichert, und sie muss eingestellt werden, um eine logische 1 (hoher Spannungspegel) zu speichern, und zurückgesetzt werden, um eine logische 0 (niedriger Spannungspegel) zu speichern. Sein Wert wird beibehalten/gespeichert, bis er durch den Setz-/Rücksetzvorgang geändert wird. Auf den Wert in der Speicherzelle kann durch Lesen zugegriffen werden.

Im SRAM ist die Speicherzelle eine Art Flip-Flop- Schaltung, die normalerweise unter Verwendung von FETs implementiert wird . Dies bedeutet, dass SRAM sehr wenig Strom benötigt, wenn nicht auf es zugegriffen wird, aber es ist teuer und hat eine geringe Speicherdichte.

Ein zweiter Typ, DRAM, basiert auf einem Kondensator. Das Laden und Entladen dieses Kondensators kann eine „1“ oder eine „0“ in der Zelle speichern. Die Ladung in diesem Kondensator entweicht jedoch langsam und muss regelmäßig aufgefrischt werden. Aufgrund dieses Auffrischungsprozesses verbraucht DRAM mehr Strom, kann aber im Vergleich zu SRAM höhere Speicherdichten und niedrigere Stückkosten erreichen.

SRAM-Zelle (6 Transistoren)
DRAM-Zelle (1 Transistor und ein Kondensator)

Adressierung

Um nützlich zu sein, müssen Speicherzellen lesbar und beschreibbar sein. Innerhalb der RAM-Vorrichtung werden Multiplex- und Demultiplex-Schaltkreise verwendet, um Speicherzellen auszuwählen. Typischerweise hat eine RAM-Vorrichtung einen Satz von Adressleitungen A0 ... An, und für jede Kombination von Bits, die an diese Leitungen angelegt werden können, wird ein Satz von Speicherzellen aktiviert. Aufgrund dieser Adressierung haben RAM-Bausteine ​​praktisch immer eine Speicherkapazität, die eine Zweierpotenz ist.

Üblicherweise teilen sich mehrere Speicherzellen dieselbe Adresse. Beispielsweise hat ein 4 Bit „breiter“ RAM-Chip 4 Speicherzellen für jede Adresse. Oft sind die Breite des Speichers und die des Mikroprozessors unterschiedlich, für einen 32-Bit-Mikroprozessor würden acht 4-Bit-RAM-Chips benötigt.

Oft werden mehr Adressen benötigt, als von einem Gerät bereitgestellt werden können. In diesem Fall werden externe Multiplexer zum Gerät verwendet, um das richtige Gerät zu aktivieren, auf das zugegriffen wird.

Speicherhierarchie

Man kann Daten im RAM lesen und überschreiben. Viele Computersysteme haben eine Speicherhierarchie, die aus Prozessorregistern , On-Die- SRAM - Caches, externen Caches , DRAM , Paging - Systemen und virtuellem Speicher oder Auslagerungsspeicher auf einer Festplatte besteht. Dieser gesamte Speicherpool wird von vielen Entwicklern möglicherweise als "RAM" bezeichnet, obwohl die verschiedenen Subsysteme sehr unterschiedliche Zugriffszeiten haben können, was gegen das ursprüngliche Konzept hinter dem Begriff des wahlfreien Zugriffs im RAM verstößt. Sogar innerhalb einer Hierarchieebene wie DRAM machen die spezifische Reihen-, Spalten-, Bank-, Rang- , Kanal- oder Verschachtelungsorganisation der Komponenten die Zugriffszeit variabel, wenn auch nicht in dem Maße, wie die Zugriffszeit auf rotierende Speichermedien oder ein Band variabel ist . Das übergeordnete Ziel der Verwendung einer Speicherhierarchie besteht darin, die höchstmögliche durchschnittliche Zugriffsleistung zu erzielen und gleichzeitig die Gesamtkosten des gesamten Speichersystems zu minimieren (im Allgemeinen folgt die Speicherhierarchie der Zugriffszeit mit den schnellen CPU-Registern an der Spitze und der langsamen Festplatte ganz unten).

In vielen modernen PCs ist der RAM in einer leicht aufrüstbaren Form von Modulen, die als Speichermodule oder DRAM-Module bezeichnet werden, etwa so groß wie ein paar Kaugummis. Diese können schnell ausgetauscht werden, wenn sie beschädigt werden oder wenn sich ändernde Anforderungen mehr Speicherkapazität erfordern. Wie oben angedeutet, sind kleinere RAM-Mengen (hauptsächlich SRAM) auch in die CPU und andere ICs auf dem Motherboard sowie in Festplatten, CD-ROMs und mehrere andere Teile des Computersystems integriert.

Andere Verwendungen von RAM

Ein SO-DIMM- Stick mit Laptop-RAM, etwa halb so groß wie der Desktop-RAM .

Neben der Funktion als temporärer Speicher und Arbeitsspeicher für das Betriebssystem und Anwendungen wird RAM auf zahlreiche andere Arten verwendet.

Virtueller Speicher

Die meisten modernen Betriebssysteme verwenden eine Methode zur Erweiterung der RAM-Kapazität, die als "virtueller Speicher" bekannt ist. Ein Teil der Festplatte des Computers wird für eine Auslagerungsdatei oder eine Scratch-Partition reserviert , und die Kombination aus physischem RAM und der Auslagerungsdatei bildet den Gesamtspeicher des Systems. (Wenn ein Computer beispielsweise über 2 GB (1024 3 B) RAM und eine Auslagerungsdatei von 1 GB verfügt, stehen dem Betriebssystem insgesamt 3 GB Arbeitsspeicher zur Verfügung.) Wenn dem System der physische Arbeitsspeicher ausgeht, kann es „ austauschen " Teile des Arbeitsspeichers in die Auslagerungsdatei, um Platz für neue Daten zu schaffen und um zuvor ausgelagerte Informationen wieder in den Arbeitsspeicher einzulesen. Die übermäßige Verwendung dieses Mechanismus führt zu Thrashing und beeinträchtigt im Allgemeinen die Gesamtsystemleistung, hauptsächlich weil Festplatten viel langsamer als RAM sind.

RAM-Disk

Software kann einen Teil des Arbeitsspeichers eines Computers "partitionieren", wodurch dieser als viel schnellere Festplatte fungieren kann, die als RAM-Disk bezeichnet wird . Eine RAM-Disk verliert die gespeicherten Daten, wenn der Computer heruntergefahren wird, es sei denn, der Speicher ist so eingerichtet, dass er eine Standby-Batteriequelle hat, oder Änderungen an der RAM-Disk werden auf eine nichtflüchtige Platte geschrieben. Die RAM-Disk wird bei der Initialisierung der RAM-Disk von der physikalischen Disk neu geladen.

Shadow-RAM

Manchmal wird der Inhalt eines relativ langsamen ROM-Chips in einen Lese-/Schreibspeicher kopiert, um kürzere Zugriffszeiten zu ermöglichen. Der ROM-Chip wird dann deaktiviert, während die initialisierten Speicherplätze auf demselben Adressblock (oftmals schreibgeschützt) eingeschaltet werden. Dieser Prozess, der manchmal als Shadowing bezeichnet wird, ist sowohl bei Computern als auch bei eingebetteten Systemen weit verbreitet .

Als gängiges Beispiel hat das BIOS in typischen PCs oft eine Option namens „Schatten-BIOS verwenden“ oder ähnlich. Wenn aktiviert, verwenden Funktionen, die auf Daten aus dem ROM des BIOS angewiesen sind, stattdessen DRAM-Speicherorte (die meisten können auch das Shadowing des ROMs der Grafikkarte oder anderer ROM-Abschnitte umschalten). Je nach System führt dies möglicherweise nicht zu einer Leistungssteigerung und kann zu Inkompatibilitäten führen. Beispielsweise kann das Betriebssystem auf einige Hardware nicht zugreifen, wenn Schatten-RAM verwendet wird. Bei manchen Systemen kann der Vorteil hypothetisch sein, da das BIOS nach dem Booten zugunsten eines direkten Hardwarezugriffs nicht verwendet wird. Der freie Speicher wird durch die Größe der Shadowed-ROMs reduziert.

Kürzliche Entwicklungen

Mehrere neue Arten von nichtflüchtigem RAM , die Daten im ausgeschalteten Zustand erhalten, befinden sich in der Entwicklung. Die verwendeten Technologien umfassen Kohlenstoff-Nanoröhren und Ansätze, die Tunnel-Magnetoresistenz verwenden . Unter den MRAMs der 1. Generation wurde im Sommer 2003 ein  128 kbit ( 128 × 2,10 Bytes ) Chip mit 0,18-µm- Technologie hergestellt 0,18-µm-Technologie. Derzeit befinden sich zwei Techniken der 2. Generation in der Entwicklung: Thermal-Assisted Switching (TAS), das von Crocus Technology entwickelt wird , und Spin-Transfer-Torque (STT), an dem Crocus , Hynix , IBM und mehrere andere Unternehmen arbeiten. Nantero baute 2004 einen funktionierenden Kohlenstoff-Nanoröhrchen-Speicherprototyp mit 10  GB (10 × 2 30 Bytes) Array. Ob einige dieser Technologien letztendlich signifikante Marktanteile von der DRAM-, SRAM- oder Flash-Speichertechnologie einnehmen können, bleibt jedoch abzuwarten .

Seit 2006 sind „ Solid-State-Drives “ (basierend auf Flash-Speicher) mit Kapazitäten von über 256 Gigabyte und einer Leistung, die herkömmliche Festplatten weit übertrifft, verfügbar. Diese Entwicklung hat begonnen, die Definition zwischen traditionellem Direktzugriffsspeicher und „Festplatten“ zu verwischen, wodurch der Unterschied in der Leistung drastisch reduziert wird.

Einige Arten von Direktzugriffsspeichern, wie z. B. „ EcoRAM “, sind speziell für Serverfarmen konzipiert , bei denen niedriger Stromverbrauch wichtiger ist als Geschwindigkeit.

Erinnerungswand

Die „Memory Wall“ ist das wachsende Geschwindigkeitsgefälle zwischen CPU und Speicher außerhalb des CPU-Chips. Ein wichtiger Grund für diese Diskrepanz ist die begrenzte Kommunikationsbandbreite über Chipgrenzen hinweg, die auch als Bandbreitenwall bezeichnet wird . Von 1986 bis 2000 verbesserte sich die CPU -Geschwindigkeit jährlich um 55 %, während sich die Speichergeschwindigkeit nur um 10 % verbesserte. Angesichts dieser Trends wurde erwartet, dass die Speicherlatenz zu einem überwältigenden Engpass bei der Computerleistung werden würde.

Die CPU-Geschwindigkeitsverbesserungen verlangsamten sich erheblich, teilweise aufgrund großer physikalischer Barrieren und teilweise, weil aktuelle CPU-Designs in gewisser Weise bereits an die Speicherwand gestoßen sind. Intel hat diese Ursachen in einem Dokument aus dem Jahr 2005 zusammengefasst.

Erstens, wenn Chipgeometrien schrumpfen und Taktfrequenzen steigen, steigt der Transistor -Leckstrom , was zu übermäßigem Stromverbrauch und Wärme führt... Zweitens werden die Vorteile höherer Taktraten teilweise durch Speicherlatenz zunichte gemacht, da Speicherzugriffszeiten haben mit steigenden Taktfrequenzen nicht Schritt halten konnte. Drittens werden herkömmliche serielle Architekturen für bestimmte Anwendungen weniger effizient, wenn die Prozessoren schneller werden (aufgrund des sogenannten Von-Neumann-Engpasses ), wodurch alle Gewinne, die sonst durch Frequenzerhöhungen erzielt werden könnten, weiter untergraben werden. Darüber hinaus nehmen die Widerstands-Kapazitäts- Verzögerungen (RC) bei der Signalübertragung zu, wenn die Strukturgrößen schrumpfen , teilweise aufgrund von Einschränkungen bei der Erzeugung von Induktivitäten in Festkörpergeräten , was einen zusätzlichen Engpass verursacht, den Frequenzerhöhungen nicht angehen.

Die RC-Verzögerungen bei der Signalübertragung wurden auch in „Clock Rate versus IPC: The End of the Road for Conventional Microarchitectures“ festgestellt, das eine durchschnittliche jährliche Verbesserung der CPU-Leistung von maximal 12,5 % zwischen 2000 und 2014 prognostizierte.

Ein anderes Konzept ist die Prozessor-Speicher-Leistungslücke, die durch integrierte 3D-Schaltungen angegangen werden kann , die den Abstand zwischen den Logik- und Speicheraspekten verringern, die in einem 2D-Chip weiter voneinander entfernt sind. Das Design von Speichersubsystemen erfordert einen Fokus auf die Lücke, die sich mit der Zeit vergrößert. Die Hauptmethode zur Überbrückung der Lücke ist die Verwendung von Caches ; kleine Mengen an Hochgeschwindigkeitsspeicher, in dem die letzten Operationen und Anweisungen in der Nähe des Prozessors untergebracht sind, wodurch die Ausführung dieser Operationen oder Anweisungen in Fällen beschleunigt wird, in denen sie häufig aufgerufen werden. Es wurden mehrere Caching-Ebenen entwickelt, um mit der wachsenden Lücke fertig zu werden, und die Leistung moderner Hochgeschwindigkeitscomputer hängt von sich entwickelnden Caching-Techniken ab. Es kann bis zu 53 % Unterschied zwischen dem Geschwindigkeitswachstum des Prozessors und der verzögerten Geschwindigkeit des Hauptspeicherzugriffs geben.

Die Geschwindigkeit von Solid-State-Festplatten hat weiter zugenommen, von ~400 Mbit/s über SATA3 im Jahr 2012 bis zu ~3 GB/s über NVMe / PCIe im Jahr 2018, wodurch die Lücke zwischen RAM- und Festplattengeschwindigkeiten geschlossen wird, obwohl RAM dies weiterhin tut eine Größenordnung schneller sein, mit Single-Lane DDR4 3200 mit 25 GB/s und modernem GDDR sogar noch schneller. Schnelle, billige, nichtflüchtige Solid-State-Laufwerke haben einige Funktionen ersetzt, die früher von RAM ausgeführt wurden, z. B. das Speichern bestimmter Daten zur sofortigen Verfügbarkeit in Serverfarmen – 1 Terabyte SSD-Speicher ist für 200 US-Dollar zu haben, während 1 TB RAM Tausende kosten würde von Dollar.

Zeitleiste

SRAM

Statischer Direktzugriffsspeicher (SRAM)
Datum der Einführung Chipname Kapazität ( Bit ) Zugriffszeit SRAM-Typ Hersteller Verfahren MOSFET Ref
März 1963 1 Bit ? Bipolar ( Zelle ) Fairkind
1965 ? 8 Bit ? Bipolar IBM ?
SP95 16-Bit ? Bipolar IBM ?
? 64-Bit ? MOSFET Fairchild ? PMOS
1966 TMC3162 16-bit ? Bipolar ( TTL ) Transitron ?
? ? ? MOSFET NEC ? ?
1968 ? 64-Bit ? MOSFET Fairchild ? PMOS
144-Bit ? MOSFET NEC ? NMOS
512-Bit ? MOSFET IBM ? NMOS
1969 ? 128-Bit ? Bipolar IBM ?
1101 256-Bit 850 ns MOSFET Intel 12.000 Nanometer PMOS
1972 2102 1kbit _ ? MOSFET Intel ? NMOS
1974 5101 1kbit 800 ns MOSFET Intel ? CMOS
2102A 1kbit 350 ns MOSFET Intel ? NMOS ( Verarmung )
1975 2114 4kBit 450 ns MOSFET Intel ? NMOS
1976 2115 1kbit 70 ns MOSFET Intel ? NMOS ( HMOS )
2147 4kBit 55 ns MOSFET Intel ? NMOS (HMOS)
1977 ? 4kBit ? MOSFET Toshiba ? CMOS
1978 HM6147 4kBit 55 ns MOSFET Hitachi 3.000 Nanometer CMOS ( Twin-Well )
TMS4016 16kBit ? MOSFET Texas-Instrumente ? NMOS
1980 ? 16kBit ? MOSFET Hitachi, Toshiba ? CMOS
64kBit ? MOSFET Matsushita
1981 ? 16kBit ? MOSFET Texas-Instrumente 2.500 Nanometer NMOS
Oktober 1981 ? 4kBit 18 ns MOSFET Matsushita, Toshiba 2.000 Nanometer CMOS
1982 ? 64kBit ? MOSFET Intel 1.500 Nanometer NMOS (HMOS)
Februar 1983 ? 64kBit 50 ns MOSFET Mitsubishi ? CMOS
1984 ? 256kBit ? MOSFET Toshiba 1.200 Nanometer CMOS
1987 ? 1 MB ? MOSFET Sony , Hitachi, Mitsubishi , Toshiba ? CMOS
Dezember 1987 ? 256kBit 10 ns BiMOS Texas-Instrumente 800 Nanometer BiCMOS
1990 ? 4 MB 15–23 ns MOSFET NEC, Toshiba, Hitachi, Mitsubishi ? CMOS
1992 ? 16 MB 12–15 ns MOSFET Fujitsu , NEC 400 Nanometer
Dezember 1994 ? 512kBit 2,5 ns MOSFET IBM ? CMOS ( SOI )
1995 ? 4 MB 6 ns Cache ( SyncBurst ) Hitachi 100 Nanometer CMOS
256 MB ? MOSFET Hyundai ? CMOS

DRAM

Dynamischer Direktzugriffsspeicher (DRAM)
Datum der Einführung Chipname Kapazität ( Bit ) DRAM-Typ Hersteller Verfahren MOSFET Bereich Ref
1965 1 bisschen DRAM ( Zelle ) Toshiba
1967 1 bisschen DRAM (Zelle) IBM MOS
1968 ? 256bit DRAM ( IC ) Fairkind ? PMOS ?
1969 1 bisschen DRAM (Zelle) Intel PMOS
1970 1102 1kbit _ DRAM (IC) Intel, Honigwell ? PMOS ?
1103 1kbit DRAM Intel 8.000 Nanometer PMOS 10 mm²
1971 μPD403 1kbit DRAM NEC ? NMOS ?
? 2kBit DRAM Allgemeines Instrument ? PMOS 13mm²
1972 2107 4kBit DRAM Intel ? NMOS ?
1973 ? 8kbit DRAM IBM ? PMOS 19 mm²
1975 2116 16kBit DRAM Intel ? NMOS ?
1977 ? 64kBit DRAM NTT ? NMOS 35 mm²
1979 MK4816 16kBit PSRAM Mostek ? NMOS ?
? 64kBit DRAM Siemens ? VMOS 25 mm²
1980 ? 256kBit DRAM NEC, NTT 1.000– 1.500 nm NMOS 34–42 mm²
1981 ? 288kBit DRAM IBM ? MOS 25 mm²
1983 ? 64kBit DRAM Intel 1.500 Nanometer CMOS 20 mm²
256kBit DRAM NTT ? CMOS 31 mm²
5. Januar 1984 ? 8 MB DRAM Hitachi ? MOS ?
Februar 1984 ? 1 MB DRAM Hitachi, NEC 1.000 Nanometer NMOS 74–76 mm²
NTT 800 Nanometer CMOS 53 mm²
1984 TMS4161 64kBit DPRAM ( VRAM ) Texas-Instrumente ? NMOS ?
Januar 1985 μPD41264 256kBit DPRAM (VRAM) NEC ? NMOS ?
Juni 1986 ? 1 MB PSRAM Toshiba ? CMOS ?
1986 ? 4 MB DRAM NEC 800 Nanometer NMOS 99 mm²
Texas Instruments, Toshiba 1.000 Nanometer CMOS 100–137 mm²
1987 ? 16 MB DRAM NTT 700 Nanometer CMOS 148 mm²
Oktober 1988 ? 512kBit HSDRAM IBM 1.000 Nanometer CMOS 78 mm²
1991 ? 64 MB DRAM Matsushita , Mitsubishi , Fujitsu , Toshiba 400 Nanometer CMOS ?
1993 ? 256 MB DRAM Hitachi, NEC 250 Nanometer CMOS ?
1995 ? 4 MB DPRAM (VRAM) Hitachi ? CMOS ?
9. Januar 1995 ? 1 GB DRAM NEC 250 Nanometer CMOS ?
Hitachi 160 Nanometer CMOS ?
1996 ? 4 MB FRAM Samsung ? NMOS ?
1997 ? 4 GB QLC NEC 150 Nanometer CMOS ?
1998 ? 4 GB DRAM Hyundai ? CMOS ?
Juni 2001 TC51W3216XB 32 MB PSRAM Toshiba ? CMOS ?
Februar 2001 ? 4 GB DRAM Samsung 100 Nanometer CMOS ?

SDRAM

Synchroner dynamischer Direktzugriffsspeicher (SDRAM)
Datum der Einführung Chipname Kapazität ( Bit ) SDRAM-Typ Hersteller Verfahren MOSFET Bereich Ref
1992 KM48SL2000 16 MB SZR Samsung ? CMOS ?
1996 MSM5718C50 18 MB RDRAM Oki ? CMOS 325mm 2
N64-RDRAM 36 MB RDRAM NEC ? CMOS ?
? 1024 MB SZR Mitsubishi 150 Nanometer CMOS ?
1997 ? 1024 MB SZR Hyundai ? SOI ?
1998 MD5764802 64 MB RDRAM Oki ? CMOS 325mm 2
März 1998 Direkter RDRAM 72 MB RDRAM Rambus ? CMOS ?
Juni 1998 ? 64 MB DDR Samsung ? CMOS ?
1998 ? 64 MB DDR Hyundai ? CMOS ?
128 MB SZR Samsung ? CMOS ?
1999 ? 128 MB DDR Samsung ? CMOS ?
1024 MB DDR Samsung 140 Nanometer CMOS ?
2000 GS-eDRAM 32 MB eDRAM Sony , Toshiba 180 Nanometer CMOS 279mm 2
2001 ? 288 MB RDRAM Hynix ? CMOS ?
? DDR2 Samsung 100 Nanometer CMOS ?
2002 ? 256 MB SZR Hynix ? CMOS ?
2003 EE+GS-eDRAM 32 MB eDRAM Sony, Toshiba 90 Nanometer CMOS 86mm 2
? 72 MB DDR3 Samsung 90 Nanometer CMOS ?
512 MB DDR2 Hynix ? CMOS ?
Elpida 110 Nanometer CMOS ?
1024 MB DDR2 Hynix ? CMOS ?
2004 ? 2048 MB DDR2 Samsung 80 Nanometer CMOS ?
2005 EE+GS-eDRAM 32 MB eDRAM Sony, Toshiba 65 Nanometer CMOS 86mm 2
Xenos-eDRAM 80 MB eDRAM NEC 90 Nanometer CMOS ?
? 512 MB DDR3 Samsung 80 Nanometer CMOS ?
2006 ? 1024 MB DDR2 Hynix 60 Nanometer CMOS ?
2008 ? ? LPDDR2 Hynix ?
April 2008 ? 8192 MB DDR3 Samsung 50 Nanometer CMOS ?
2008 ? 16384 MB DDR3 Samsung 50 Nanometer CMOS ?
2009 ? ? DDR3 Hynix 44 Nanometer CMOS ?
2048 MB DDR3 Hynix 40nm
2011 ? 16384 MB DDR3 Hynix 40nm CMOS ?
2048 MB DDR4 Hynix 30nm CMOS ?
2013 ? ? LPDDR4 Samsung 20nm CMOS ?
2014 ? 8192 MB LPDDR4 Samsung 20nm CMOS ?
2015 ? 12 GB LPDDR4 Samsung 20nm CMOS ?
2018 ? 8192 MB LPDDR5 Samsung 10 nm FinFET ?
128 GB DDR4 Samsung 10 nm FinFET ?

SGRAM und HBM

Synchroner Grafikspeicher mit wahlfreiem Zugriff (SGRAM) und Speicher mit hoher Bandbreite (HBM)
Datum der Einführung Chipname Kapazität ( Bit ) SDRAM-Typ Hersteller Verfahren MOSFET Bereich Ref
November 1994 HM5283206 8 MB SGRAM ( SDR ) Hitachi 350 Nanometer CMOS 58mm 2
Dezember 1994 μPD481850 8 MB SGRAM (SDR) NEC ? CMOS 280mm 2
1997 μPD4811650 16 MB SGRAM (SDR) NEC 350 Nanometer CMOS 280mm 2
September 1998 ? 16 MB SGRAM ( GDDR ) Samsung ? CMOS ?
1999 KM4132G112 32 MB SGRAM (SDR) Samsung ? CMOS ?
2002 ? 128 MB SGRAM ( GDDR2 ) Samsung ? CMOS ?
2003 ? 256 MB SGRAM (GDDR2) Samsung ? CMOS ?
SGRAM ( GDDR3 )
März 2005 K4D553238F 256 MB SGRAM (GDDR) Samsung ? CMOS 77mm 2
Oktober 2005 ? 256 MB SGRAM ( GDDR4 ) Samsung ? CMOS ?
2005 ? 512 MB SGRAM (GDDR4) Hynix ? CMOS ?
2007 ? 1024 MB SGRAM ( GDDR5 ) Hynix 60 Nanometer
2009 ? 2048 MB SGRAM (GDDR5) Hynix 40nm
2010 K4W1G1646G 1024 MB SGRAM (GDDR3) Samsung ? CMOS 100mm 2
2012 ? 4096 MB SGRAM (GDDR3) SK Hynix ? CMOS ?
2013 ? ? HBM
März 2016 MT58K256M32JA 8 GB SGRAM ( GDDR5X ) Mikron 20nm CMOS 140mm 2
Juni 2016 ? 32 GB HBM2 Samsung 20nm CMOS ?
2017 ? 64 GB HBM2 Samsung 20nm CMOS ?
Januar 2018 K4ZAF325BM 16 GB SGRAM ( GDDR6 ) Samsung 10 nm FinFET 225mm 2

Siehe auch

Verweise

Externe Links

  • Medien im Zusammenhang mit RAM bei Wikimedia Commons