„IBM General Parallel File System“ – Versionsunterschied
[gesichtete Version] | [gesichtete Version] |
Aka (Diskussion | Beiträge) K Halbgeviertstrich, Kleinkram |
K linkfix |
||
Zeile 9: | Zeile 9: | ||
Es zeigte sich schnell, dass GPFS vor allem für Höchstleistungsrechner aufgrund seiner parallelen Architektur geeignet ist. 1998 erschien GPFS als offizielles IBM-Produkt und Nachfolger für Vesta/PIOFS als [[Posix]]-konformes Dateisystem. |
Es zeigte sich schnell, dass GPFS vor allem für Höchstleistungsrechner aufgrund seiner parallelen Architektur geeignet ist. 1998 erschien GPFS als offizielles IBM-Produkt und Nachfolger für Vesta/PIOFS als [[Posix]]-konformes Dateisystem. |
||
Es wurde das Dateisystem hinter den ASCI White und Purple Supercomputern am Lawrence Livermore National Laboratory.<ref>{{Internetquelle|url=https://asc.llnl.gov/computing_resources/purple/ |
Es wurde das Dateisystem hinter den ASCI White und Purple Supercomputern am Lawrence Livermore National Laboratory.<ref>{{Internetquelle|url=https://asc.llnl.gov/computing_resources/purple/ | titel=ASCI Purple | zugriff=2017-10-30}}</ref> |
||
Später wurde es auf weitere Betriebssysteme portiert: |
Später wurde es auf weitere Betriebssysteme portiert: |
||
* [[AIX]] |
* [[AIX]] seit 1998 |
||
* [[Linux]] |
* [[Linux]] seit 2001 |
||
* [[Windows]] seit 2008 |
* [[Windows]] seit 2008 |
||
Zeile 22: | Zeile 22: | ||
GPFS wird als Cluster-Filesystem mit hoher Schreib- / Lesebandbreite in etlichen Installationen der [[TOP500]]-Supercomputerliste genutzt, Beispiele: |
GPFS wird als Cluster-Filesystem mit hoher Schreib- / Lesebandbreite in etlichen Installationen der [[TOP500]]-Supercomputerliste genutzt, Beispiele: |
||
* NCSA |
* NCSA http://www.ncsa.illinois.edu/news/story/ncsa_to_deploy_ibms_gpfs_for_all_supercomputing_systems |
||
* Biowulf/NiH |
* Biowulf/NiH https://www.top500.org/news/nih-receives-major-supercomputer-upgrade/ |
||
* Cheyenne/NCAR (SGI) |
* Cheyenne/NCAR (SGI) https://www.top500.org/news/ncar-launches-five-petaflop-supercomputer/ |
||
* Juron,Julia/Jülich: https://www.top500.org/news/juelich-supercomputing-centre-deploys-cray-and-ibm-supercomputers-for-human-brain-project/ |
* Juron,Julia/Jülich: https://www.top500.org/news/juelich-supercomputing-centre-deploys-cray-and-ibm-supercomputers-for-human-brain-project/ |
||
* Leibniz-Rechenzentrum, [[SuperMUC]]/München https://www.lrz.de/services/compute/supermuc/systemdescription/ |
* Leibniz-Rechenzentrum, [[SuperMUC]]/München https://www.lrz.de/services/compute/supermuc/systemdescription/ |
||
* ASCI White und Purple/LLNL |
* ASCI White und Purple/LLNL https://asc.llnl.gov/computing_resources/purple/ (2002) |
||
* Argonne Mira System https://www.alcf.anl.gov/mira und https://www.alcf.anl.gov/resources-expertise/data-networking |
* Argonne Mira System https://www.alcf.anl.gov/mira und https://www.alcf.anl.gov/resources-expertise/data-networking |
||
* ein aktueller Rekord: https://www.heise.de/newsticker/meldung/IBM-Forscher-stellen-Weltrekord-beim-Massenspeicher-Zugriff-auf-1284611.html |
* ein aktueller Rekord: https://www.heise.de/newsticker/meldung/IBM-Forscher-stellen-Weltrekord-beim-Massenspeicher-Zugriff-auf-1284611.html |
||
Zeile 37: | Zeile 37: | ||
* V7000 Unified, eine Appliance für Block- und File-Storage |
* V7000 Unified, eine Appliance für Block- und File-Storage |
||
* Elastic Storage Server (ESS), verschiedene Appliances auf Power-Basis für File- und Object-Storage |
* Elastic Storage Server (ESS), verschiedene Appliances auf Power-Basis für File- und Object-Storage |
||
* SONAS – Scale Out Network Attached Storage |
* SONAS – Scale Out Network Attached Storage https://www.ibm.com/de-en/marketplace/scale-out-file-and-object-storage (inzwischen in ''Spectrum Scale'' aufgegangen) |
||
GPFS / Spectrum Scale verfügt über folgende funktionale Eigenschaften: |
GPFS / Spectrum Scale verfügt über folgende funktionale Eigenschaften: |
||
* mehrere [[Network Attached Storage|NAS]]-Rechner können ein [[ |
* mehrere [[Network Attached Storage|NAS]]-Rechner können ein [[Rechnerverbund|Cluster]]-Volume gleichzeitig (parallel) schreibend mounten, das Filesystem ist damit für sehr viele Clients skalierbar. |
||
* [[RAID|Striping]] und damit paralleles Lesen und Schreiben werden auf Ebene der Massenspeicher und einzelner Dateien unterstützt. Durch diese Parallelität |
* [[RAID|Striping]] und damit paralleles Lesen und Schreiben werden auf Ebene der Massenspeicher und einzelner Dateien unterstützt. Durch diese Parallelität können sehr hohe Durchsatzraten erreicht werden. |
||
* verteilte [[Lock]]-Manager: Paralleles Schreiben auf ein Dateisystem wird dadurch möglich, dass eine Datei zu einem Zeitpunkt nur von einem Prozess geschrieben werden darf |
* verteilte [[Lock]]-Manager: Paralleles Schreiben auf ein Dateisystem wird dadurch möglich, dass eine Datei zu einem Zeitpunkt nur von einem Prozess geschrieben werden darf |
||
* Metadaten und Daten können auf unterschiedliche Datenträger verteilt werden, um die Leistung zu steigern |
* Metadaten und Daten können auf unterschiedliche Datenträger verteilt werden, um die Leistung zu steigern |
||
Zeile 49: | Zeile 49: | ||
* sehr große Limits für Dateigröße (8 [[Exabyte|EB]]), Verzeichnisgröße, Dateisystemgröße (8 [[Yottabyte|YB]]), Anzahl Dateien je Dateisystem (2^64) |
* sehr große Limits für Dateigröße (8 [[Exabyte|EB]]), Verzeichnisgröße, Dateisystemgröße (8 [[Yottabyte|YB]]), Anzahl Dateien je Dateisystem (2^64) |
||
* Unterstützung für [[Hierarchisches Speichermanagement|HSM / Hierarchical Storage Management]] |
* Unterstützung für [[Hierarchisches Speichermanagement|HSM / Hierarchical Storage Management]] |
||
* die Volumes können mit [[CIFS]]- und [[Network File System|NFS]]-Protokoll gleichzeitig freigegeben werden, ab der Version 4.1 |
* die Volumes können mit [[CIFS]]- und [[Network File System|NFS]]-Protokoll gleichzeitig freigegeben werden, ab der Version 4.1 auch als [[Hadoop]] Distributed Filesystem. |
||
* die Zugriffsrechtesteuerung funktioniert für NFS (für Unix-Systeme) mit POSIX-Dateirechte und für CIFS (Windows-Systeme) mit [[Access Control List|ACLs]]. Diese Dateizugriffsrechte sind unabhängig voneinander steuerbar |
* die Zugriffsrechtesteuerung funktioniert für NFS (für Unix-Systeme) mit POSIX-Dateirechte und für CIFS (Windows-Systeme) mit [[Access Control List|ACLs]]. Diese Dateizugriffsrechte sind unabhängig voneinander steuerbar |
||
* Das Dateisystem arbeitet nach dem [[Copy-On-Write]]-Prinzip. Analog zu Windows "Schattenkopien" können Snapshots über jedes exportierte Verzeichnis erreicht werden, sowohl über NFS als auch über CIFS |
* Das Dateisystem arbeitet nach dem [[Copy-On-Write]]-Prinzip. Analog zu Windows "Schattenkopien" können Snapshots über jedes exportierte Verzeichnis erreicht werden, sowohl über NFS als auch über CIFS |
Version vom 6. März 2020, 20:22 Uhr
GPFS ist eine Abkürzung für General Parallel File-System, ein Cluster-Dateisystem von IBM. Es entstand aus mehreren Forschungsprojekten zu parallel arbeitenden Dateisystemen und wurde und wird unter mehreren Handelsnamen vertrieben:
- IBM General Parallel Filesystem
- Elastic Storage
- Spectrum Scale
Geschichte
GPFS entstand aus den IBM-Forschungsprojekten "Tiger Shark File System" und "Vesta File System" und wurde ursprünglich als "Multimedia"-Dateisystem bezeichnet, was sich in internen Bezeichnungen heute noch wiederfindet.[1] Es zeigte sich schnell, dass GPFS vor allem für Höchstleistungsrechner aufgrund seiner parallelen Architektur geeignet ist. 1998 erschien GPFS als offizielles IBM-Produkt und Nachfolger für Vesta/PIOFS als Posix-konformes Dateisystem.
Es wurde das Dateisystem hinter den ASCI White und Purple Supercomputern am Lawrence Livermore National Laboratory.[2] Später wurde es auf weitere Betriebssysteme portiert:
Weitere Netzwerkprotokolle wie Windows-CIFS wurden unterstützt. Ursprünglich ein Dateisystem hinter großen Storageinstallationen wurde es später von der Hardware unabhängig als Softwareprodukt verkauft. Fähigkeiten wie Shared-Nothing-Cluster kamen in jüngerer Zeit hinzu.[3] Am 14. Juli 2014 kündigte IBM einen Cloud-Dienst namens Elastic Storage[4] an. Am 17. Februar 2015 wurde GPFS von IBM in Spectrum Scale umbenannt.
GPFS im Supercomputing
GPFS wird als Cluster-Filesystem mit hoher Schreib- / Lesebandbreite in etlichen Installationen der TOP500-Supercomputerliste genutzt, Beispiele:
- NCSA http://www.ncsa.illinois.edu/news/story/ncsa_to_deploy_ibms_gpfs_for_all_supercomputing_systems
- Biowulf/NiH https://www.top500.org/news/nih-receives-major-supercomputer-upgrade/
- Cheyenne/NCAR (SGI) https://www.top500.org/news/ncar-launches-five-petaflop-supercomputer/
- Juron,Julia/Jülich: https://www.top500.org/news/juelich-supercomputing-centre-deploys-cray-and-ibm-supercomputers-for-human-brain-project/
- Leibniz-Rechenzentrum, SuperMUC/München https://www.lrz.de/services/compute/supermuc/systemdescription/
- ASCI White und Purple/LLNL https://asc.llnl.gov/computing_resources/purple/ (2002)
- Argonne Mira System https://www.alcf.anl.gov/mira und https://www.alcf.anl.gov/resources-expertise/data-networking
- ein aktueller Rekord: https://www.heise.de/newsticker/meldung/IBM-Forscher-stellen-Weltrekord-beim-Massenspeicher-Zugriff-auf-1284611.html
Funktionen
Integrierte Storagesysteme der IBM aus Hardware und Software mit GPFS unter dem Betriebssystem Linux sind:
- V7000 Unified, eine Appliance für Block- und File-Storage
- Elastic Storage Server (ESS), verschiedene Appliances auf Power-Basis für File- und Object-Storage
- SONAS – Scale Out Network Attached Storage https://www.ibm.com/de-en/marketplace/scale-out-file-and-object-storage (inzwischen in Spectrum Scale aufgegangen)
GPFS / Spectrum Scale verfügt über folgende funktionale Eigenschaften:
- mehrere NAS-Rechner können ein Cluster-Volume gleichzeitig (parallel) schreibend mounten, das Filesystem ist damit für sehr viele Clients skalierbar.
- Striping und damit paralleles Lesen und Schreiben werden auf Ebene der Massenspeicher und einzelner Dateien unterstützt. Durch diese Parallelität können sehr hohe Durchsatzraten erreicht werden.
- verteilte Lock-Manager: Paralleles Schreiben auf ein Dateisystem wird dadurch möglich, dass eine Datei zu einem Zeitpunkt nur von einem Prozess geschrieben werden darf
- Metadaten und Daten können auf unterschiedliche Datenträger verteilt werden, um die Leistung zu steigern
- Mehrere GPFS-Server (auch Nodes genannt) arbeiten als ein hoch verfügbares Cluster, Ausfälle werden abgefangen
- GPFS kann ab Version 4.1 auch nach dem Prinzip des Shared Nothing Clusters arbeiten (FPO – File Placement Optimizer) und kann damit als HDFS arbeiten
- sehr große Limits für Dateigröße (8 EB), Verzeichnisgröße, Dateisystemgröße (8 YB), Anzahl Dateien je Dateisystem (2^64)
- Unterstützung für HSM / Hierarchical Storage Management
- die Volumes können mit CIFS- und NFS-Protokoll gleichzeitig freigegeben werden, ab der Version 4.1 auch als Hadoop Distributed Filesystem.
- die Zugriffsrechtesteuerung funktioniert für NFS (für Unix-Systeme) mit POSIX-Dateirechte und für CIFS (Windows-Systeme) mit ACLs. Diese Dateizugriffsrechte sind unabhängig voneinander steuerbar
- Das Dateisystem arbeitet nach dem Copy-On-Write-Prinzip. Analog zu Windows "Schattenkopien" können Snapshots über jedes exportierte Verzeichnis erreicht werden, sowohl über NFS als auch über CIFS
- Asynchrone Replikation zwischen verschiedenen GPFS-Volumes ist möglich (Active File Management)
Weblinks
- Die Produkthomepage bei IBM ist https://www.ibm.com/systems/de/storage/spectrum/index.html
- die Ressourcen-Seite bei IBM ist https://www.ibm.com/de-en/marketplace/scale-out-file-and-object-storage
- Die Einstiegsseite für die IBM-Onlinedokumentation ist https://www.ibm.com/support/knowledgecenter/SSFKCN/gpfs_welcome.html
- GPFS-Wiki https://www.ibm.com/developerworks/community/wikis/home?lang=en#!/wiki/General%20Parallel%20File%20System%20(GPFS)
Einzelnachweise
- ↑ FAST 2002 Conference on File and Storage Technologies. Abgerufen am 30. Oktober 2017.
- ↑ ASCI Purple. Abgerufen am 30. Oktober 2017.
- ↑ File Placement Optimizer. Abgerufen am 30. Oktober 2017.
- ↑ Elastic Storage Announcement. Abgerufen am 27. Januar 2018.