Cluster: Ein Netz für alle Fälle
Als Cluster wird ein Rechnerverbund aus vernetzten IT-Maschinen bezeichnet. Je nach Verwendungszweck kommen verschiedene Formen der Vernetzung zum Einsatz.
Ein High-Availabity-Cluster (HAC) sorgt für ständige Verfügbarkeit und eine hohe Ausfallsicherheit. Tritt in einem Knoten des Netzes ein Problem auf, migrieren alle laufenden Dienste auf einen anderen Knoten. Sowohl die Hard- wie auch die Software eines HA-Clusters muss dabei völlig frei von singulären Komponenten sein, die bei einem Ausfall das System lahmlegen könnten. Eine Doppelauslegung aller Komponenten ist für HA-Cluster also die Mindestregel. Auch trennen die Komponenten solcher Cluster geographisch oft mehrere Kilometer Distanz, so dass auch in einem Katastrophenfall das System nicht ausfällt (‚stretched Cluster‘).
Ein anderes Problem besteht in wechselnden Leistungsanforderungen. Hier kommen ‚Load-Balancing-Cluster‘ zum Einsatz (LBC), die den Arbeitsanfall bei erhöhten Anforderungen unter sich gleichmäßig aufteilen. Solche Systeme werden oft aus Kostengründen installiert. Statt einzelner teurer Hochleistungsmaschinen teilt hier ein Schwarm aus vernetzten Standard-Computern die wechselnden Aufgaben gleichmäßig unter sich auf.
Wo es um die Bewältigung großer Datenmengen geht, kommen High-Performance-Computing-Cluster zum Einsatz (HPC). Zumeist ist die Wissenschaft das Einsatzgebiet für ein solches Netz. Hier wird eine Aufgabe mit Hilfe eines Decomposition-Programms auf viele Rechner aufgeteilt, welche jeweils Teilaufgaben übernehmen (‚Jobs‘). Die Geschwindigkeit des Netzwerks und der verwendeten Software sind hier kritische Größen. Die sogenannten ‚Super-Rechner‘ verwenden heute zumeist ein HPC-Cluster, das auf einer Linux-Basis operiert.