Cache
Wörtlich aus dem Englischen übersetzt bedeutet Cache (gesprochen: kæʃ, wie das Bargeld - cash, entlehnt aus dem französischen cacher - verbergen, caché - verborgen) soviel wie "geheimes Lager".
Cache bezeichnet in der EDV die besondere Form eines Speichers, in dem Kopien von Daten und Programminstruktionen zwischengelagert werden, so dass diese bei einem Zugriff durch die Zentraleinheit schnell zur Bearbeitung bereitstehen. Den Namen verdankt der Cache der Tatsache, dass er für den Anwender transparent arbeitet, der Anwender also nichts von dessen Existenz mitbekommt und ihn auch nicht explizit ansprechen kann.
Das Funktionieren des Caches beruht auf der so genannten Lokalitätseigenschaft.
Man unterscheidet Read-Only- (nur zum Lesen vorhalten), Read-Write- (zum Lesen und Verändern vorhalten) und Write-Through-Cache (beim Verändern werden die Originale direkt erneuert). Auch mehrstufige Verfahren (Second-Level-Cache) sind möglich. Dabei werden Daten über mehrere Stufen durchgereicht bzw. vorgehalten. Meist ist der Cache im Vergleich zum Hauptspeicher sehr klein. Auf die Elemente kann aber sehr schnell und einfach zugegriffen werden. Der Zwischenspeicher wird zwischen einem entfernteren oder aufwändig erreichbaren oder langsameren Bereich und einer (schnellen) Verarbeitungseinheit geschaltet und vermindert die operative Distanz zu den Verarbeitungsobjekten.
Cache-Techniken werden auch von Anwenderprogrammen wie Webbrowsern angeboten.
Für eine korrekte Verarbeitung der zwischengespeicherten Daten bedarf es einer ausgeklügelten Cache-Verwaltung. Diese stellt die notwendige Korrespondenz zwischen den Kopien und den Originalen her. Einerseits müssen nicht im Cache vorhandene aber dennoch angeforderte Elemente aus dem Originalbereich nachgeladen werden und es müssen im Falle von Änderungen diese auf jeden Fall aus dem Cache in die Originale übertragen werden. Möglicherweise können oder müssen Elemente, die selten oder garnicht angefordert werden, aus dem Cache entfernt werden, denn es kann nur ein Teil der Gesamtmenge vorgehalten werden.
Die Einrichtung eines Cache bietet Vorteile unter der Annahme, dass der erreichbare Performancegewinn den Aufwand für das Kopien/Original-Update-Management übertrifft - etwa bei häufigen und wiederholten Zugriffen. Dieser Vorteil schwindet naturgemäß, je mehr Elemente zwischengespeichert werden.
Im Cache liegende Daten lassen sich mit einer bestimmten Menge von Büchern oder Unterlagen auf einem Schreibtisch vergleichen, die dort für die Erledigung einer bestimmten Arbeit griffbereit liegen (vielleicht auch in Kopie). Nach einer entsprechenden Erledigung wandern diese Dinge wieder zurück in ein Regal oder in einen möglichweise in einem anderen Zimmer stehenden Aktenschrank.