4.3.4.3.2) RAM (Random Access Memory)

RAM bezeichnet einen Speichertyp dessen Speicherzellen über ihre Speicheradressen direkt angesprochen werden können. In diesem Zusammenhang wird auch von „wahlfrei“ gesprochen, was sich auf „random“ bezieht und nichts mit „Zufall“ oder „zufälligem Zugriff“ zu tun hat. In diesem Zusammenhang spricht man von „Speicher mit wahlfreiem Zugriff“ oder „Direktzugriffsspeicher“. Auf andere Speicherarten (zum Beispiel Flash) kann man nur blockweise zugreifen. RAM erlaubt den Zugriff auf jede einzelne Speicherzelle. Bei ROM (Read-Only-Memory, Nur-Lese-Speicher) funktioniert das genauso. Bei RAM funktioniert es lesend, wie auch schreibend. Doch wird die Stromversorgung abgeschaltet gehen die Daten im RAM verloren.

RAM wird in Computer- und Mikrocontroller-Systemen als Arbeitsspeicher eingesetzt. Weil in der Regel nur RAM als Arbeitsspeicher verwendet wird, wird RAM gerne als Abkürzung für Arbeitsspeicher verwendet. In diesem Arbeitsspeicher werden Programme und Daten von externen Speicherträgern und Festplatten geladen. Zur schnellen Verarbeitung kann der Prozessor darauf zugreifen, verarbeiten und danach wieder in den Arbeitsspeicher schreiben.

Prinzipiell unterscheidet man zwischen statischem RAM und dynamischem RAM. SRAM und DRAM sind flüchtige Halbleiterspeicher. Sie verlieren nach dem Ausschalten ihren Speicherinhalt.

SRAM - Static Random Access Memory

SRAM ist ein statischer Halbleiterspeicher, was bedeutet, dass der Speicherinhalt mittels Flip-Flops gespeichert wird und so nach dem Abruf des Speicherinhaltes erhalten bleibt. Dadurch ist der Stromverbrauch sehr hoch, was aber zu einem schnellen Arbeiten innerhalb des Speichers führt. Aufgrund seines hohen Preises und des großen Stromverbrauchs wird SRAM nur als Cache- oder Pufferspeicher mit geringen Kapazitäten verwendet.

DRAM - Dynamic Random Access Memory

DRAM ist der einfachste und billigste Speicher. Im Computer-Bereich ist DRAM als Arbeitsspeicher bzw. Hauptspeicher der bevorzugte Halbleiterspeicher, den es in verschiedensten Varianten und Weiterentwicklungen gibt. Heute ist der SDRAM der am weitesten verbreitete Halbleiterspeicher in der Computertechnik. Im Gegensatz zum SRAM muss der Speicherinhalt beim DRAM zyklisch aufgefrischt werden (Refresh). Dies ist normalerweise in Abständen von einigen zig Millisekunden erforderlich. Das Auffrischen des Speichers erfolgt zeilenweise.

Eine DRAM-Speicherzelle besteht aus einem Transistor und einem Kondensator (1T1C), der das eigentliche Speicherelement ist. In einer DRAM-Speicherzelle wird ein Bit durch die Ladung des Kondensators gespeichert. Die Messung der Spannung am Speicherkondensator (Lesen) und dessen anschließende Aufladung (Schreiben) benötigen eine gewisse Zeit.

SDRAM - Synchronous DRAM

SDRAM ist der am häufigsten verwendete Arbeitsspeicher bzw. Hauptspeicher in Computersystemen. SDRAM hat die Eigenschaft, dass er seine Schreib- und Lesezugriffe am Systemtakt orientiert. Das bedeutet, er arbeitet synchron mit dem Speicherbus. Woraus die Bezeichnung „Synchronous DRAM“ abgeleitet wird. Im Gegensatz dazu arbeitet normales DRAM asynchron. Die synchrone Arbeitsweise vereinfacht und beschleunigt die Ansteuerung des Speichers. SDRAM kann programmiert und so die Art des Zugriffs gesteuert werden. Auf diese Weise lässt sich SDRAM an jede beliebige Anwendung anpassen.

DDR-SDRAM - Double Data Rate SDRAM (DDR1 / DDR2 / DDR3 / DDR4)

DDR-SDRAM und die Varianten DDR2, DDR3 und DDR4 sind gängige Halbleiterspeicher für Computersysteme. DDR-SDRAM wird als Arbeitsspeicher bzw. Hauptspeicher verwendet. Dieser Halbleiterspeicher wird nicht nur in Computern, sondern auch in Kraftfahrzeugen, Netzwerken, Kommunikationstechnik, medizinischen Apparaten und in der Unterhaltungselektronik eingesetzt.

DDR-SDRAM entspricht dem normalen SDRAM, jedoch mit einer kleinen Modifikation: Bei der Übertragung der Daten wird nicht nur die ansteigende Flanke, sondern auch die abfallende Flanke des Taktsignals zur Datenübertragung genutzt. In der Praxis entspricht das einer Taktverdopplung. Rein rechnerisch entsteht so eine Verdopplung der Übertragungsrate.


Double Data Rate bedeutet, dass pro Übertragungszyklus (eine Taktrate) zweimal bzw. die doppelte Menge an Daten übertragen wird. Damit die beteiligten Komponenten des Speicherbusses synchron arbeiten orientieren sie sich am Speichertakt und nutzen durch die DDR-Technik sowohl die steigende als auch die fallende Taktflanke. Normalerweise würde man nur die steigende Taktflanke nehmen. Ein Speicherbus, der mit 100 MHz arbeitet würde bei DDR rein rechnerisch mit 200 MHz arbeiten. Soviel zur grundsätzlichen Funktionsweise von Double Data Rate (DDR).

Eine weitere Erhöhung der Übertragungsrate wäre dann nur noch durch die Erhöhung der Taktrate möglich. Doch Vorsicht, man unterscheidet zwischen dem internen Speicher-Takt in den Speicherchips und dem externen Speicherbus-Takt. Das bedeutet, wenn der Speicherbus-Takt mit 100 MHz und durch DDR rechnerisch mit 200 MHz arbeitet, bedeutet das nur, dass sich die DDR-Technik als Taktverdopplung von 100 auf 200 MHz auswirkt. Denn intern arbeitet der Speicher nur mit 100 MHz. Double Data Rate bezieht sich hier nur auf den Speicherbus, nicht auf die Speicherchips.

Das bedeutet, die Verdopplung der Übertragungsrate auf dem Speicherbus ist nur wenig sinnvoll, wenn der eigentliche Speicher die Daten in dieser Geschwindigkeit nicht liefern kann. Die Frage ist, wie schafft man es, dass die Verdopplung der externen Datentransferrate auch wirklich genutzt werden kann. Das erreicht man nur durch Prefetching innerhalb des Speichers. Dazu werden einfach zwei (DDR) oder mehr (DDR2, DDR3) Datenbits auf einmal ausgelesen. Die Zugriffsbeschleunigung durch Prefetching funktioniert aber nur dann, wenn der Speicher-Controller hintereinander liegende Adressbereiche aus der gleichen Speicherfeldzeile anfordert oder wenn die angeforderten Daten auf unterschiedlichen Speicherbänken liegen.