Speichermedium | |
---|---|
![]() | |
Allgemeines | |
Name | Hard Disk Drive |
Abkürzung | HDD |
Typ | magnetisch |
Ursprung | |
Erfindungsjahr | 1973 |
Erfinder | IBM |
Daten | |
Größe | 3,5″ |
Gewicht | ca 0,6 kg |
Drehzahl | bis zu 15.000 min−1 |
Speicherkapazität | bis zu 500 GB (Stand: 01.2006) |
Puffergröße | bis zu 16 MB |
Schnellste Übertragungsrate | ca. 100 MB/s (Server-Festplatten) |
Minimale Betriebstemperatur (typ.) | 5 °C |
Maximale Betriebstemperatur (typ.) | 60 °C |
Lebensdauer | mehrere Jahre (hängt von vielen Faktoren ab) |
Der Bereich „Daten“ gilt nur für 3,5″-Festplatten und können abhängig vom konkreten Modell variieren |
Eine Festplatte (engl. hard disk (HD) oder hard disk drive (HDD)) ist ein magnetisches Speichermedium der Computertechnik. 1973 startete IBM das „Winchester“-Projekt, das das erste Laufwerk mit fest eingebauten Platten (IBM 3340) hervorbrachte. Bis in die 1990er Jahre war deshalb für Festplatten die Bezeichnung Winchester-Laufwerk gebräuchlich. Auf ihr können beliebige Dateien, zum Beispiel des Betriebssystems, von Anwendungsprogrammen, oder persönliche Daten (Dokumente, Videos, Musik, Bilder) dauerhaft gespeichert werden.


Allgemeine technische Daten
Speicherkapazität
Das Fassungsvermögen einer Festplatte wird heute üblicherweise in Gigabyte (GB) angegeben.
Vor allem Festplattenhersteller definieren bei der Angabe der Kapazität ein Gigabyte als 10003 Byte = 109 Byte = 1.000.000.000 Byte, während Computerprogramme ein Gigabyte meist als 10243 Byte = 230 Byte = 1.073.741.824 Byte behandeln. Mit den Binärpräfixen (Mebibyte, Gibibyte) versucht man diese Doppeldeutigkeit zu vermeiden.
Wenn man die Kapazität einer Festplatte, die in „Gigabyte“ (10003 Byte = 109 Byte) angegeben wurde, in Gibibyte (GiB, 10243 Byte = 230 Byte) umrechnen möchte, so kann man folgenden Umrechnungsfaktor benutzen:
Beispiel:
Viele Computerprogramme zeigen die Kapazität in Einheiten mit binärem Präfix (z. B. Gibibyte) an, oft jedoch fälschlich mit Dezimalpräfixes (wie Gigabyte) beschriftet.
Anfang 2005 waren Festplatten bis 400 GB (372,53 GiB) Kapazität erhältlich. Im Juni 2005 gab es von Hitachi bereits eine Festplatte mit 500 GB Kapazität für Endkunden zu kaufen.
Baugrößen
moni was geht so ab ???????????
nischts scheiß info
Die physikalische Größe von Festplatten wird traditionell in Zoll angegeben und ist keine exakte Größenangabe, sondern ein Formfaktor. So sind beispielsweise 3,5″-Festplatten exakt 100 mm breit, was knapp 4 Zoll entspricht. Die Größe der Scheiben in diesem 100 mm breiten Gehäuse liegt aber um die 3,5 Zoll, wobei Serverplatten häufig etwas kleiner sind.
Die zur Zeit verwendeten Formfaktoren reichen von 5,25″ bis 0,85″, wobei der Trend zu kleineren Festplatten geht. Der 3,5″-Formfaktor ist im Desktop-Bereich der am weitesten verbreitete, in Laptops findet man meist 2,5″-Festplatten, in noch kleineren portablen Geräten (z. B. MP3-Player) häufig 1,8″-Festplatten.
- 5,25″-Baugrößen sind die ursprünglichen Baugrößen der Festplatten, jedoch ist diese Gattung aber seit 1996/97 ausgestorben. Einige SCSI-Server-Platten, sowie die LowCost-IDE-Platte BigFoot von Quantum waren die letzten Vertreter dieser Spezies. Man unterscheidet Geräte mit voller Bauhöhe (3,5″ bzw. ca. 88 mm), die zwei Steckplätze belegen und halber Bauhöhe (1,75″ bzw. ca. 44 mm). Die Breite beträgt 146 mm, die Tiefe ist variabel und sollte nicht wesentlich oberhalb von 200 mm liegen.
- 3,5″-Baugrößen wurden um ca. 1990 eingeführt und werden derzeitig in Desktop-Computern und Servern verwendet, die meisten Platten haben halbe Bauhöhe (1″ bzw. ca. 25 mm). Im Serverbereich gibt es auch Platten bis 1,8″ Höhe (1,8″ bzw. ca. 44 mm). Die Breite beträgt 100 mm, die Tiefe ist variabel und sollte nicht wesentlich oberhalb von 150 mm liegen.
- 2,5″-Baugrößen finden Verwendung in Notebooks oder Spezialrechnern. Die traditionelle Bauhöhe war 0,5″ (12,7 mm), mittlerweile gibt es mit 0,375″ (9,5 mm) und 0,25″ (6,35 mm) flachere Festplatten und auch Notebooks, die diese flachen Varianten benötigen. Die Breite beträgt 68 mm, die Tiefe beträgt 100 mm. Der Anschluss ist gegenüber den größeren Bauformen modifiziert, bei IDE wird z.B. ein 44-poliger Anschluss verwendet, der gleichzeitig die Betriebsspannung von +5 Volt zuführt (Pin 1 ist meist auf der Seite der Jumper). Im Gegensatz zu den größeren Platten kommen diese Platten auch mit nur einer Betriebsspannung aus.
- 1,8″-Baugrößen werden seit 2003 bei Sub-Notebooks sowie diversen Industrieanwendungen verwendet
- 1″-Baugrößen sind seit 2002 unter dem Name MicroDrives im Einsatz. Die meisten MicroDrives wurden bis Mitte 2004 als „verkleidete“ CompactFlash-Typ-II-Speichereinheiten für digitale Kameras eingesetzt. Hauptnachteil ist die mechanische Empfindlichkeit außerhalb von Geräten und der hohe Stromverbrauch.
- 0,85″-Baugrößen sind derzeit (Januar 2005) nur in begrenzten Mengen über die Firma Toshiba verfügbar, welche diese Baugröße im März 2004 mit einer Kapazität von 4 GigaByte (3,73 GiB) zum ersten Mal vorgestellt hat. Ob diese kleinen Bauformen jemals Bestand haben werden, ist fraglich. Flash-Speicher ist in diesem Bereich schon verfügbar und auf Wachstumskurs. Derzeitig ist Flash-Speicher noch teurer, aber wesentlich robuster und sparsamer im Energieverbrauch.
Überblick über die Speicherkapazitäten der verschiedenen Baugrößen
Jahr | 5,25″ | 3,5″ | 2,5″ | 1,8″ | 1,0″ | 0,85″ | typ. Modell(e) mit hoher Kapazität | Quelle |
---|---|---|---|---|---|---|---|---|
1983 | 20 MByte | -moin | - | - | - | - | 20 MB Festplatte im IBM PC XT | |
1989 | 80 MByte | - | - | - | - | - | ? | |
1995 | ? MByte | 850 MByte | - | - | - | - | Western Digital mit 850 MB | |
1997 | 12 GByte | 9 GByte | 2 GByte | - | - | - | Quantum Bigfoot (12 GB, 5,25″), Nov. 1997 | [1] |
2000 | # | >75 GByte ? | ? GByte | - | - | - | ? | |
2005 | # | 500 GByte | 160 GByte | 60 GByte | 8 GByte | 6 GByte | Hitachi Deskstar 7K500 (500 GB, 3,5″), Juli 2005 | [2] |
(2007) | # | 1 TByte = 1024 GByte* ? | ? | ? | 20 GByte* ? | ? | ? | [3] |
Anmerkungen:
- Angaben beziehen sich immer auf die zum jeweiligen Jahr größte käuflich erhältliche Festplatte, unabhängig von ihrer Drehzahl oder Schnittstelle
- Die Vorhersage der zukünftigen Speicherkapazitäten ist ungenau, daher stellen Angaben mit Jahreszahlen in Klammern nur grobe Anhaltspunkte dar
- Kapazitäten sind Herstellerangaben, d. h. ein Gigabyte ist definiert als , ein Megabyte als
- Mit Fragezeichen markierte Einträge bitte verifizieren/ergänzen
- - noch nicht verfügbar
- * Verwendung von Perpendicular Recording
- # Baugröße veraltet; nicht mehr in Gebrauch
Aufbau und Funktion
Physikalischer Aufbau
Eine Festplatte besteht aus folgenden Bauelementen:
- einer oder mehreren drehbar gelagerten Scheiben (engl. Platter)
- einem Antrieb für die Scheibe(n)
- bewegliche Schreib-/Leseköpfe (Heads)
- jeweils ein Lager für die Schreib-/Leseköpfe und die Scheiben
- einem Antrieb für die Schreib-/Leseköpfe
- der Steuerelektronik für Motor- und Kopfsteuerung
- Hochleistungs-DSP für die Schreib/Leseköpfe.
- der Schnittstelle zur Verbindung mit der Hauptplatine (motherboard)
- einem Festplattencache
Festplatten, welche in Arbeitsplatzrechnern oder in PCs für den privaten Gebrauch verwendet werden – momentan zum größten Teil Platten mit ATA- oder SATA-Schnittstelle – rotieren mit Geschwindigkeiten von 5.400 bis 7.200 Umdrehungen pro Minute. Vor der Zeit der ATA-Festplatten und im Bereich der Hochleistungsrechner und Server wurden bzw. werden meistens Festplatten mit der technisch überlegenen SCSI-Schnittstelle verwendet, die inzwischen in der Regel 10.000 oder 15.000 Umdrehungen pro Minute erreichen. Bei den 2,5-Zoll-Festplatten, die hauptsächlich in Notebooks zum Einsatz kommen, liegen die Geschwindigkeiten im Bereich von 4.200 bis 7.200 Umdrehungen pro Minute.
In dem Festplattengehäuse befinden sich ein oder mehrere übereinander liegende rotierende Scheiben. Verbaut worden sind bisher 1 bis 12 Scheiben, üblich sind 1 bis 4. Allerdings geht eine höhere Scheibenanzahl in der Regel mit einem höheren Energieverbrauch und einer größeren Geräuschentwicklung einher. Manchmal werden aus Platzgründen nicht alle Scheibenoberflächen genutzt, sodass Festplatten mit ungerader Schreib-/Lesekopfanzahl entstehen. Um die Nachfrage nach Festplattenmodellen mit kleinerer Kapazität zu befriedigen, können die Hersteller ebenfalls auf diese Weise die Kapazität künstlich beschränken.
Waren die Scheiben früherer Festplatten (bis 2000) kugelgelagert, so werden heute (2005) überwiegend Flüssigkeitslager (engl. „fluid dynamic bearing“ – FDB) verwendet. Diese zeichnen sich durch eine höhere Lebensdauer und geringere Geräuschentwicklung aus.
Die Scheiben bestehen meistens aus Aluminium oder Legierungen. Sie müssen formstabil sein, eine geringe elektrische Leitfähigkeit verringert Wirbelströme.
In älteren Desktopfestplatten von IBM (Deskstar 75GXP/40GV DTLA-30xxxx, Deskstar 60GXP/120GXP IC35Lxxxx) aus den Jahren 2000 bis 2002 kam Glas zum Einsatz. Neuere Modelle der Festplattensparte von IBM (2003 übernommen durch Hitachi) verwenden jedoch wieder Aluminium, mit Ausnahme der Festplatten für den Serverbereich.
Da diese Materialien selbst jedoch keine magnetischen Eigenschaften besitzen, wird eine Eisenoxid- oder Kobaltschicht von ungefähr einem Mikrometer Stärke aufgetragen. Diese wird zusätzlich von einer Schutzhülle aus Graphit ummantelt, um mechanische Beschädigungen zu vermeiden.
Die Schreib-/Leseköpfe schweben durch ein durch die Rotation der Platten erzeugtes Luftpolster über der Plattenoberfläche. Die Flughöhe liegt jedoch heutzutage (2005) nur im Bereich von Nanometern, sodass die Luft innerhalb des Festplattengehäuses keinerlei Verunreinigungen beinhalten darf. Die Herstellung von Festplatten erfolgt deshalb wie die von Halbleitern in Reinräumen. Wird eine Festplatte in normaler, verunreinigter Luft geöffnet, so sorgen bereits kleinste Staub-/Rauchpartikel, Fingerabdrücke, etc für wahrscheinlich irreparable Beschädigungen der Plattenoberfläche und der Schreib-/Leseköpfe.
Zum Schutz der für Daten benutzten Oberflächen vor dem Aufsetzen der Schreib-/Leseköpfe fahren diese, noch bevor sich beim Ausschalten der Festplatten die Umdrehungsgeschwindigkeit merklich verringert hat, in die so genannte „Landezone“ („landing zone“), in der sie fixiert werden. Diese Parkposition kann sich außerhalb der Scheiben befinden oder im Innenbereich der Platten. Die Fixierung geschieht z.B. über einen kleinen Magneten, der den Lesekopf festhält. Traditionellerweise mussten Festplatten explizit vor dem Ausschalten per Befehl vom Betriebssystem geparkt werden. Aber auch heutzutage sollten Festplatten explizit geparkt werden, da mitunter mit dem Autoparken (Parken bei abgeschalteter Versorgung aus der Restenergie der auslaufenden Platten) eine geringere Lebensdauer einhergeht.
Das Parken erhöht auch die Stoßfestigkeit der Festplatten für einen Transport oder Umbau. Bei modernen Laptops sorgt ein Beschleunigungssensor für das Parken der Festplatte noch während eines eventuellen freien Falls, um so den Schaden beim Sturz eines Rechners zu begrenzen.
Das Gehäuse der Festplatte ist staubdicht, aber nicht luftdicht abgeschlossen: durch eine kleine Öffnung mit einem Filter kann Luft eindringen oder austreten. Diese Öffnung darf in der Regel nicht verschlossen werden. Da der Luftdruck im Gehäuse mit zunehmender Höhe über dem Meeresspiegel abnimmt, zum Betrieb aber ein Mindestdruck erforderlich ist, dürfen Festplatten nur bis zu einer bestimmten, maximalen Höhe betrieben werden. Diese ist in der Regel im zugehörigen Datenblatt vermerkt.
Speichern und Lesen von Daten
Das Speichern der Daten auf einer Festplatte erfolgt durch die gezielte Magnetisierung kleinster Flächen einer Schicht ferromagnetischen Materials, die entsprechend ihrer Polarität den Wert 0 oder 1 annehmen. Der Schreib-/Lesekopf (Magnetkopf), im Prinzip ein winziger Elektromagnet, polarisiert die einzelnen Sektoren unterschiedlich und speichert so die Daten permanent.
Vor dem Schreiben der Daten werden diese in speziellen Verfahren wie den früher üblichen Verfahren GCR, MFM, RLL und heute üblicherweise mit PRML oder EPRML kodiert. Ein logisches Bit steht daher nicht mehr physikalisch als magnetisierte oder nicht magnetisierte Einheit auf der Plattenoberfläche. Durch die Schreibverfahren wird auch eine Kompression erreicht, so dass die Datendichte steigt.
Sowohl beim Schreiben als auch beim Lesen muss vor dem Zugriff auf einen bestimmten Block der Schreib/Lesekopf der Platte bewegt und anschließend abgewartet werden, bis durch die Rotation der Platte der Block unter dem Kopf vorbeigeführt wird. Diese mechanisch bedingten Verzögerungen liegen heutzutage bei ca. 5–10 ms, was nach Maßstäben anderer Computerhardware eine kleine Ewigkeit ist. Daraus ergibt sich die extrem hohe Latenzzeit von Festplatten im Vergleich mit RAM, die noch auf der Ebene der Softwareentwicklung und der Algorithmik berücksichtigt werden muss. Um eine hohe Performanz zu erreichen, muss eine Festplatte soweit wie möglich immer große Mengen von Daten in aufeinander folgenden Blöcken lesen oder schreiben, weil dabei der Schreib/Lesekopf nicht neu positioniert werden muss. Dies erreicht man, indem man möglichst viele Operationen im RAM durchführt und auf der Platte die Positionierung der Daten auf die Zugriffsmuster abstimmt.
Das Auslesen der Daten wurde bis ca. 1994 durch Induktion des Magnetfelds der magnetisierten Fläche in der Spule des Schreib-/Lesekopfes erreicht. Über die Jahre wurden jedoch die Flächen, auf denen einzelne Bits gespeichert werden, immer kleiner – die Datendichte wurde erhöht.
Um diese Daten auszulesen, werden kleinere und empfindlichere Leseköpfe benötigt. Diese wurden nach 1994 entwickelt: MR-Leseköpfe sowie einige Jahre später GMR-Leseköpfe (Riesenmagnetowiderstand). Der GMR-Lesekopf ist eine Anwendung der Spintronik.
Zusätzlich wurde die Steigerung der Datendichte durch besseres Trägermaterial sowie durch die Optimierung der Schreibverfahren erreicht.
Eine neuere Entwicklung (seit 2004) ist das Perpendicular Recording, das zur Zeit u. a. von Toshiba und Hitachi entwickelt wird, um die Datendichte weiter zu steigern.
Um die Lautstärke der Laufwerke beim Zugriff auf Daten zu verringern, unterstützen die meisten IDE- und SATA-Festplatten, die für den Desktop-Einsatz gedacht sind, „Automatic Acoustics Management“ (AAM). Wird die Festplatte in einem leisen Modus betrieben, werden die Schreib- und Leseköpfe weniger stark beschleunigt, sodass die Zugriffe leiser sind. Das Laufgeräusch des Plattenstapels wird davon nicht verändert, ebenso bleibt die Dauertransferrate von AAM unberührt; jedoch verlängert sich die Zugriffszeit.
Logischer Aufbau
Die magnetische Schicht der Scheiben ist der eigentliche Träger der Informationen. Sie wird auf zylindrischen Spuren magnetisch aufgeprägt, während die Scheibe rotiert. Eine Scheibe enthält typischerweise einige tausend solcher Spuren, meist auch auf beiden Seiten. Die Gesamtheit aller identischen Spuren der einzelnen Platten(oberflächen) nennt man Zylinder. Jede Spur ist in kleine logische Einheiten unterteilt, die man Blöcke nennt. Ein typischer Block enthält 512 Byte an Information. Jeder Block verfügt dabei über Kontrollinformationen (Prüfsummen), über die sichergestellt wird, dass die Information auch korrekt geschrieben oder gelesen wurde. Die Gesamtheit aller Blöcke, die die gleichen Winkelkoordinaten auf den Platten haben, nennt man Sektor. Leider wird der Begriff Sektor häufig fälschlicherweise auch synonym für Block verwendet.
Bei modernen Festplatten ist es normalerweise so, dass die wahre Geometrie, also die Anzahl von Sektoren, Köpfen und Zylindern, die vom im Festplattengehäuse integrierten Controller (im Folgenden „Festplatten-Intelligenz“ genannt) verwaltet werden, nach außen nicht mehr sichtbar ist. Der Computer, der die Festplatte benutzt, arbeitet dann mit einer virtuellen Festplatte, die völlig andere Geometriedaten aufweist. Dies erklärt, warum z.B. eine Festplatte, die real nur vier Köpfe aufweist, vom Computer mit 255 Köpfen gesehen wird. Ein Grund für solch ein virtuelles Konzept ist, dass man Begrenzungen von PC-kompatibler Hardware überwinden wollte. Weiterhin kann die Festplatten-Intelligenz durch dieses virtuelle Konzept defekte Blöcke ausblenden, um dann einen Block aus einer Reserve-Spur einzublenden. Für den Computer sieht es immer so aus, als wären alle Blöcke defektfrei und nutzbar. Es wird vermutet, dass besagte Reserve-Spuren ca. 10–20% des auf der Festplatte angegebenen Speicherplatzes ausmachen. Dieser Speicherplatz lässt sich durch spezielle Firmware-Versionen nutzen, was dann aber logischerweise die Lebensdauer der Festplatte (bzw. die Datensicherheit) reduzieren kann. Heute übliche Festplatten teilen weiterhin die Platten in Zonen auf, wobei eine Zone mehrere Spuren enthält. Jede Zone hat die gleiche Anzahl Sektoren, unterschiedliche Zonen haben hingegen unterschiedliche Anzahl Sektoren.
Aus Sicht des Betriebssystems können Festplatten durch Partitionen in mehrere Bereiche unterteilt werden. Man kann sich diese als logische Festplatten vorstellen, die durch den Festplattentreiber dem Betriebssystem (und damit evtl. dem Benutzer) gegenüber als getrennte Geräte dargestellt werden. Es ist dabei im Verhalten (von zeitlichen Effekten abgesehen) nicht erkennbar, ob es sich tatsächlich jeweils um eine physikalisch getrennte Festplatte handelt oder lediglich um ein logisches Laufwerk auf einer gemeinsamen Festplatte.
Jede Partition wird vom Betriebssystem gewöhnlich mit einem Dateisystem formatiert. Unter Umständen werden, je nach benutztem Dateisystem, mehrere Blöcke zu Clustern zusammengefasst, die dann die kleinste logische Einheit für Daten sind, die auf die Platte geschrieben werden. Das Dateisystem sorgt dafür, dass Daten in Form von Dateien auf die Platte abgelegt werden können. Ein Inhaltsverzeichnis im Dateisystem sorgt dafür, dass Dateien wieder gefunden werden und hierarchisch organisiert abgelegt werden können. Bei MS-DOS und Windows 9x war die File Allocation Table das übliche Dateisystem.
Schnittstellen
Als Schnittstelle der Festplatte zu anderen Computer-Komponenten werden in der letzten Zeit hauptsächlich die parallelen Schnittstellen ATA (IDE, EIDE) (überwiegend bei Personal Computern) oder SCSI (bei Servern, Workstations und höherwertigen Personal Computern) verwendet.
Mit zunehmender Übertragungsgeschwindigkeit ergeben sich hierbei technische Schwierigkeiten, die für die Übertragungsrate eine obere Grenze setzen (bisher max. 320 MByte/s bei SCSI) und den Aufwand bei der Realisierung erhöhen. Deshalb wird seit einigen Jahren ein Übergang zu seriellen Schnittstellen angestrebt.
Die ersten verbreiteten seriellen Schnittstellen für Festplatten waren SSA (Serial Storage Architecture, von IBM entwickelt)und Fibre-Channel in der Variante FC-AL (Fibre Channel-Arbitrated Loop). SSA-Festplatten werden heute praktisch nicht mehr hergestellt, aber Fibre Channel-Festplatten werden weiterhin für den Einsatz in großen Speichersystemen gebaut. Trotz ihres Namens haben sie keine optische, sondern eine elektrische Schnittstelle.
Seit 2002 gewinnt das neue Verfahren Serial ATA (S-ATA oder SATA) an Bedeutung. Die Vorteile gegenüber ATA (zur Abgrenzung nun vermehrt P-ATA oder PATA genannt) sind der höhere mögliche Datendurchsatz und die einfachere Verkabelung. 2005 wurden erste Festplatten mit Serial Attached SCSI (SAS) als potentieller Nachfolger von SCSI für den Server- und Storagebereich vorgestellt, über zwei Anschlüsse kann der Datenaustausch hier theoretisch mit bis zu 600 MByte/s erfolgen.
Vor allem bei SCSI-Platten und auch bei neueren S-ATA Festplatten werden so genannte Queues (Warteschlangen) eingesetzt. Diese reihen die Anfragen an den Datenträger in eine Liste und sortieren sie entsprechend der physikalischen Position auf der Scheibe, um so möglichst viele Daten mit möglichst wenigen Umdrehungen zu lesen. Der festplatteneigene Cache spielt hierbei eine große Rolle, da die Queues in diesem abgelegt werden (Siehe auch: Tagged Command Queuing, Native Command Queuing).
Es werden auch universelle Schnittstellen wie FireWire oder USB für den Anschluss externer Festplatten verwendet, hierbei sind jedoch die eingebauten Festplatten selbst mit herkömmlichen (meist ATA oder S-SATA) Schnittstellen ausgestattet, die Signale werden durch eine eigene Elektronik für die nach außen geführte Schnittstelle umgesetzt.
Die Kommunikation via Fibre-Channel-Interface, ist noch leistungsfähiger und in der Glasfaser-basierten Form vor allem für die Verwendung in Speichernetzwerken (Storage Area Network, SAN) konzipiert. Da die Festplatten hier ebenfalls nicht direkt angesprochen werden, sondern über einen Controller, können alle Arten von Festplattenschnittstellen verwendet werden, von FC-AL über SCSI bis hin zu Serial ATA. Einen konkurrierenden Ansatz verfolgt iSCSI, jedoch unter Verwendung von IP-Netzen.
Datensicherheit
Ausfallrisiken und Lebensdauer
Zu den typischen Ausfallrisiken gehören:
- Die Anfälligkeit von Festplatten ist besonders bei den neuen, sehr schnell drehenden Systemen vorwiegend auf thermische Probleme zurückzuführen.
- Beim mechanischen Aufsetzen des Schreib-Lesekopfes (Head-Crash) kann die Festplatte beschädigt werden. Der Kopf schwebt im Betrieb über der Platte und wird durch ein Luftpolster, das durch von der drehenden Scheibe mitgerissene Luft entsteht, am Aufsetzen gehindert. Bei laufendem Betrieb sollte der Computer daher möglichst nicht bewegt werden oder Erschütterungen ausgesetzt sein.
- Äußere Magnetfelder können die Sektorierung der Festplatte irreversibel zerstören. Eine Löschung mit einem magnetischen Wechselfeld macht neuere Festplatten unbrauchbar. Diese Wirkung geht auch von statischen Magnetfeldern (z.B. von Permanentmagneten) aus, wenn sie auf die rotierende Festplatte wirken.
- Fehler in der Steuerelektronik oder allgemeine Abnutzung führen zu Ausfällen.
Die durchschnittliche Anzahl an Betriebsstunden, bevor eine Festplatte ausfällt, wird bei irreparablen Platten als MTTF (Mean Time To Failure) bezeichnet. Bei Festplatten, die repariert werden können, wird ein MTBF-Wert (Mean Time Between Failure) angegeben.
Die Lebensdauer einer Festplatte kann nicht konkret vorhergesagt werden, denn diese hängt von vielen Faktoren ab:
- eine gute Kühlung erhöht die theoretische Lebensdauer, da Mechanik und Elektronik weniger schnell altern und beansprucht werden.
- Anzahl der Zugriffe (Lesekopfbewegungen): Durch häufige Zugriffe verschleißt die Mechanik schneller, als wenn die Platte nicht genutzt wird und sich nur der Plattenstapel dreht.
- Vibrationen und Stöße: Starke Erschütterungen können zu einem vorzeitigen (Lager-) Verschleiß führen und sollten daher vermieden werden.
- Unterschiede zwischen verschiedenen Modellreihen eines Herstellers: Abhängig vom jeweiligen Modell lassen sich bestimmte Baureihen ausmachen, die als besonders zuverlässig oder fehleranfällig gelten. Um statistisch genau Angaben zu der Zuverlässigkeit machen zu können, sind allerdings eine große Anzahl von baugleichen Platten notwendig, die unter ähnlichen Bedingungen betrieben werden. Systemadministratoren, die viele Systeme betreuen, können so im Laufe der Jahre durchaus einige Erfahrungen sammeln, welche Fesplatten eher zu auffälligen Verhalten und damit vorzeitigen Ausfall neigen.
Allgemein sind schnelldrehende Server-Festplatten für eine höhere MTTF als typische Desktop-Festplatten ausgelegt, sodass sie theoretisch eine höhere Lebensdauer erwarten lassen. Dauerbetrieb und häufige Zugriffe können jedoch dazu führen, dass sich dies relativiert und die Festplatten nach wenigen Jahren ausgetauscht werden müssen.
Notebook-Festplatten werden durch die häufigen Transport besonders beansprucht und sind dementsprechend trotz robusterer Bauart mit einer kleineren MTTF als Desktop-Festplatten spezifiziert.
Vorbeugende Maßnahmen
Als vorbeugende Maßnahmen gegen Datenverlust werden daher häufig folgende Maßnahmen ergriffen:
- Von wichtigen Daten sollte immer eine Sicherungskopie (Backup) auf einem anderen Datenträger existieren.
- Systeme, die zwingend hochverfügbar sein müssen und bei denen ein Festplattenfehler keine Betriebsunterbrechung verursachen darf, verfügen meistens über ein RAID. Eine Konfiguration ist z.B. das Mirrorset (RAID 1), bei dem die Daten auf zwei Festplatten gespiegelt werden und sich somit die Ausfallsicherheit erhöht. Effizientere Konfigurationen sind RAID 5 und höher. Ein Stripeset (RAID 0) aus zwei Festplatten erhöht zwar die Geschwindigkeit, verdoppelt jedoch das Ausfallrisiko. RAID 0 ist deshalb keine sinnvolle Maßnahme, um Datenverlust zu verhindern.
- ATA-Festplatten verfügen seit Einführung von ATA-3 im Jahr 1996 über S.M.A.R.T., eine interne Überwachung der Festplatte auf Zuverlässigkeit. Der Status kann von außen abgefragt werden. Ein Nachteil ist, dass S.M.A.R.T. kein Standard ist. Jeder Hersteller definiert seine Fehlertoleranz selbst, d.h. S.M.A.R.T. ist nur als allgemeines Richtmittel anzusehen. Außerdem gibt es Festplatten, deren S.M.A.R.T. Funktionalität selbst dann noch nicht vor Problemen warnt, wenn diese sich bereits im Betrieb durch nicht mehr lesbare Blöcke bemerkbar gemacht haben. Man sollte sich also nicht auf S.M.A.R.T. verlassen.
- Um durch Überhitzung der Festplatte bedingte Ausfälle zu verhindern, muss diese entsprechend ihrer maximal erlaubten Betriebstemperatur gekühlt werden. In Servern kommen dazu mit Lüftern versehene Wechselrahmen und Backplanes zum Einsatz.
Datenschutz
Soll eine Datei gelöscht werden, wird üblicherweise lediglich im Dateisystem vermerkt, dass der entsprechende Datenbereich nun frei ist. Die Daten selbst verbleiben jedoch physisch auf der Festplatte, bis der entsprechende Bereich mit neuen Daten überschrieben wird. Mit Datenrettungsprogrammen können gelöschte Daten daher oft zumindest zum Teil wiederhergestellt werden.
Auch beim Partitionieren oder gewöhnlichen Formatieren wird der Datenbereich nicht überschrieben, sondern lediglich die Partitionstabelle oder die Beschreibungsstruktur des Dateisystems. Bei einer Low-Level-Formatierung dagegen wird der gesamte adressierbare Bereich einer Festplatte überschrieben.
Um ein sicheres Löschen von sensiblen Daten zu garantieren, bieten verschiedene Hersteller Software an, die beim Löschen den Datenbereich überschreibt. Meistens kann aber auf eine (fast) beliebige und kostenlose Linux-Distribution zurückgegriffen werden, wie zum Beispiel Knoppix, die praktischerweise direkt von CD gestartet werden kann. Des Weiteren gibt es verschiedene Opensource-Programme, die dies ebenfalls erledigen (siehe Weblinks). Wurde die Datei bereits gelöscht, ohne die Daten zu überschreiben, kann auch der komplette freie Speicher der Festplatte überschrieben werden.
Verschiedene Festplatten bieten die Möglichkeit an, den kompletten Festplatteninhalt per Passwort direkt auf Hardwareebene zu schützen. Da diese im Grunde nützliche Eigenschaft jedoch kaum bekannt ist und die meisten BIOSe die Funktion zum Setzen des Passworts nicht selbsttätig ausschalten, besteht rein theoretisch für Schadprogramme wie Viren die Chance, dem Benutzer durch Setzen dieses Passworts auf einen unbekannten Wert massiv zu schaden, besteht danach doch keine Möglichkeit mehr, noch auf Inhalte der Festplatte zuzugreifen. Für weitere Infos bzgl. ATA-Festplatten siehe Passwortschutz unter ATA.
Geschichte
Vorläufer der Festplatte war die Magnettrommel ab 1958 (Zuse Z22). Die Entwicklung wurde anfangs von IBM bestimmt (Siehe engl. Artikel Early IBM diskstorage). Diese Systeme bestanden aus bis zu 50 Disks mit bis zu 14 Zoll Größe bei Speichergrößen im Megabyte-Bereich.
Chronologische Übersicht
- 1956: IBM stellt das erste magnetische Festplattenlaufwerk vor. Auf 50 Speicherplatten von 61 cm Durchmesser wurde eine Kapazität von 5 Megabyte (MB) erreicht.
- 1973: IBM startet das „Winchester“-Projekt, das sich damit befasste, einen rotierenden Speicher mit einem fest montierten Medium zu entwickeln (IBM 3340, 30 MB Speicherkapazität, 30 ms Zugriffszeit). Beim Starten und Stoppen des Mediums sollten die Köpfe auf dem Medium aufliegen, was einen Lademechanismus überflüssig machte. Namensgeber war das Winchester-Gewehr 3030.
- 1979: Vorstellung der ersten 8″-Winchester-Laufwerke. Diese waren jedoch sehr schwer und teuer (5 MB kosteten mehr als 10.000 DM (ca. 5000 Euro)); trotzdem stieg der Absatz kontinuierlich.
- 1980: Verkauf der ersten 5-1/4″-Winchester-Laufwerke durch die Firma Seagate Technology mit der Modellbezeichnung ST506 (6 Megabyte Kapazität). Diese Modellbezeichnung (ST506) wurde auch über viele Jahre hinaus der Name für diese neue angewendete Schnittstelle, welche alle anderen Firmen als neuen Standard im PC-Bereich übernommen hatten. Zur gleichen Zeit kam neben den bereits bestehenden Apple-Microcomputern der erste PC von IBM auf den Markt, dadurch stieg die Nachfrage nach diesen – im Vergleich zu den Winchester-Laufwerken kompakten – Festplatten rasant an.
- 1986: Spezifikation von SCSI, eines der ersten standardisierten Protokolle für eine Festplattenschnittstelle.
- 1997: Erster Einsatz des Riesen-Magnetowiderstands (englisch Giant Magnetoresistive Effect (GMR)) bei Festplatten, dadurch konnte die Speicherkapazität stark gesteigert werden. Eine der ersten Festplatten mit GMR-Leseköpfen war die IBM Deskstar 16GP (3,5″, November 1997) mit einer Kapazität von 16,8 GB.
- 2004: 18. November 400 GB-Festplatte (3,5″) von Hitachi. Erste Festplatten mit Native Command Queuing von Seagate.
- 2005: 500 GB-Festplatte (3,5″) von Hitachi.
- 2006: Erste 2,5-Zoll Notebook-Festplatte (160 GB, „Momentus 5400.3“) von Seagate mit senkrechter Aufzeichnungstechnik (Perpendicular Recording)
Siehe auch
Weblinks
- Daten auf Festplatten wirklich löschen – unter Linux
- Hinweise zum Datenlöschen für gewerbliche Nutzer
- Darik's Boot and Nuke – freie Software zum Löschen der Festplatte