Die Schließung von PDSF ist das Ende des Anfangs für Cloud Computing.

Stecker wird aus einer Steckdose gezogen, auf der PDSF steht

Gepostet am Donnerstag, 9. Mai 2019

Ende letzten Monats hat Berkeley Lab seinen PDSF-Cluster (Parallel Distributed Systems Facility) endgültig heruntergefahren. Der PDSF-Cluster, der außerhalb der akademischen Welt relativ unbekannt ist, war seit den 90er Jahren ein wichtiges Instrument für die wissenschaftliche Spitzenforschung.

Ähnlich wie bei einem klassischen Großrechner hatten Forscher aus der ganzen Welt Remote-Zugriff auf den PDSF-Cluster und damit Zugang zu einer erhöhten Rechenleistung, die in ihren eigenen Rechenzentren nicht verfügbar war. In der Folge war PDSF maßgeblich an vielen preisgekrönten wissenschaftlichen Entdeckungen beteiligt, darunter die Analyse der Struktur von Neutrinos, der Nachweis der Existenz des Higgs-Boson-Teilchens und die Berechnung der beschleunigten Ausdehnungsrate des Universums.

Kein Supercomputer

Der PDSF-Cluster ist im Vergleich zu einem Supercomputer relativ klein, aber seine größte Stärke war die Flexibilität des Systems. In vielerlei Hinsicht war der Cluster seiner Zeit weit voraus und bot Cloud-ähnliche Features und Funktionen, lange bevor es AWS überhaupt gab.

Der PDSF-Cluster nutzte das Prinzip der vereinten Kapazität, beispielsweise konnten Forscher ungenutzte Rechenleistung aus dem zentralen Pool zur Durchführung ihrer Experimente nutzen. Und das benutzerdefinierte Chroot OS (CHOS) war ein früher Vorläufer der Containerisierung, der es Forschern ermöglichte, ihre eigenen Betriebsumgebungen zu erstellen und zu kontrollieren, wobei die Daten sicher von anderen Nutzern der gemeinsamen Plattform abgegrenzt waren. 

Ein Cluster auf der Basis von Standard-Hardware

Der PDSF-Cluster bestand zudem aus Standard-Hardware, was dazu beitrug, die Kosten sowohl beim Systemaufbau als auch bei den Ersatzteilen zu senken. In einem Bericht über den Cluster aus dem Jahr 1994 wurde angemerkt, dass er mit nicht-proprietären Systemen und Komponenten unterschiedlicher Hersteller „zu einem Bruchteil der Kosten“ von Supercomputern gebaut worden war. Die Hardware wurde in der Regel zweimal im Jahr aktualisiert, um mit dem Bedarf Schritt zu halten, doch das Konzept der Hardware „von der Stange“ stellte sicher, dass diese Kosten überschaubar waren.

In vielerlei Hinsicht lebt dieses Konzept des „Commodity Computing“ mit modernem softwaredefiniertem Storage und Networking – und auch mit Cloud-Rechenzentren selbst – weiter.

Nach zwanzig Dienstjahren wurde der PDSF-Cluster jedoch endgültig abgeschaltet. Seitdem haben die Forscher ihre Projekte auf den Cori-Supercomputer migriert, der nun die nötige Rechenleistung bereitstellt, um die komplexesten wissenschaftlichen Geheimnisse zu ergründen. Und mit der gesteigerten Rechenleistung eines Supercomputers dürften diese Ergebnisse noch beeindruckender sein.

Wenn Sie mehr darüber erfahren möchten, wie CDS Ihre noch immer einwandfrei funktionierenden herstellerunabhängigen Systeme und Geräte von unterschiedlichen Herstellern unterstützen kann, dann kontaktieren Sie uns noch heute!

PDF Download - Die Schließung von PDSF ist das Ende des Anfangs für Cloud Computing.

Weitere Artikel

2 Männer bauen einen Weg aus Puzzleteilen von einer Wolke zu einem Rechenzentrum

So lösen Sie Probleme mit dem Legacy-Support während der Cloud-Migration

Irgendwann müssen Sie Ihre Altsysteme ausmustern – aber was ist, wenn Sie Ihren OEM nicht für weitere zwölf Monate Wartung bezahlen wollen?

Schere schneidet ein Blatt Papier mit einem Zahnradsymbol durch

NetApp EOA: Ihre letzte Warnung zur Support-Abdeckung

Was bedeutet EOA und warum ist es so wichtig für die Planung der Support-Abdeckung für Ihre NetApp Filer?