Zum Hauptinhalt springen Skip to page footer

Was ist Hyperscale Computing?

Hyperscale Computing ist die Fähigkeit einer Infrastruktur, die Leistung entsprechend dem aktuellen Bedarf selbstständig anzupassen. Die eigentliche Funktion wird als Hyperscaling bezeichnet. Diese Technik kommt in der Cloud zum Einsatz, um Ressourcen möglichst optimal einzusetzen und gleichzeitig maximale Flexibilität für Nutzer des Services zu bieten.

     

1 Hyperscale Computing – Eigenschaften und Funktionen

Die grundsätzliche Idee beim Hyperscaling ist, die vorhandene Rechenleistung dynamisch und flexibel auf die Anwendungen zu verteilen. Die Basis für diese Technologie stellt somit ein Servercluster dar. Solche Cluster befinden sich in einem Rechenzentrum. Eine Software übernimmt die zentrale Verwaltung dieser Server. Anwendungen, die auf diesen Servern gehostet sind, teilt die Software automatisch die zu jedem Zeitpunkt erforderliche Leistung zu. Hier liegt die eigentliche Kernfunktion, nämlich die Skalierbarkeit. Benötigt eine Anwendung mehr Leistung, stellt das Hyperscale Computing diese unverzüglich und im großen Maßstab zur Verfügung. Wird die Leistung nicht mehr benötigt, gibt die Software diese wieder frei und ermöglicht so eine dynamische Skalierung.

Die Architektur beim Hyperscale Computing ist recht einfach strukturiert. Der Steuerungsserver mit der Verwaltungssoftware ist das zentrale Element. Mit diesem sind alle anderen Server, die die eigentliche Rechenleistung bereitstellen, verbunden. Der Steuerungsserver verwaltet die eingehenden Anfragen und leitet diese an Server weiter, die aktuell freie Kapazitäten besitzen. So wird die Last auf den Servercluster verteilt. Die Server sind horizontal gruppiert, kommunizieren also ausschließlich direkt mit dem Steuerungsserver. Zu den Ressourcen, die über das Netzwerk via Hyperscale Computing bereitgestellt werden, gehören Prozessorlaufzeit, Festplattenspeicher und Arbeitsspeicher. Somit eignet sich das Konzept für die Bereitstellung von Rechenleistung, die Speicherung von Daten oder auch die Auswertung von Informationen direkt auf den Systemen. Damit gleicht das Konzept einem Cloud-Server mit Virtualisierung nur in einem viel größeren Maßstab.

Hyperscale Computing ist in seiner Funktion vergleichbar mit dem Load Balancing. Tatsächlich übernimmt ein Load Balancer die Kontrolle über das Servercluster und die Verteilung der Ressourcen. Der Unterschied ist jedoch, dass Hyperscaling in einem deutlich größeren Maßstab stattfindet. Ein solcher Cluster besteht also aus viel mehr Servern als beispielsweise ein Load Balancer für die eigene Webseite und verwaltet dementsprechend deutlich mehr Kapazitäten. Ebenfalls sind auf einer solchen Infrastruktur nicht nur ein oder zwei Anwendungen gehostet, sondern die Anbieter stellen einer Vielzahl an Nutzern Leistungen zur Verfügung, die über Hyperscale verwaltet werden. Das findet zum Beispiel in Form von Public-Cloud-Services statt. Anbieter solcher IT-Infrastrukturen werden auch Hyperscaler genannt.

2 Was ist ein Hyperscaler?

Als Hyperscaler werden Anbieter von Cloud-Services bezeichnet, die eine entsprechend leistungsfähige IT-Infrastruktur besitzen und das Konzept des Hyperscale Computings nutzen. Die Cloud-Computing-Services AWS von Amazon oder auch Azure von Microsoft sind zwei gute Beispiele für solche Unternehmen. Hyperscaler betreiben zudem mehrere Rechenzentren und die Hardwareressourcen sind über die Grenzen eines Rechenzentrums hinweg zusammengefasst. So verknüpfen diese Dienstleister mehrere Cluster miteinander, was die Skalierbarkeit nochmals deutlich steigert und gleichzeitig für eine zusätzliche Redundanz sorgt.

Wer also über einen IT-Dienstleister wie TelemaxX den Microsoft Azure Peering Service nutzt, erhältlich automatisch ebenfalls Zugriff auf das Hyperscaling von Microsoft. Was diese Hyperscaler so besonders macht, ist die Tatsache, dass Nutzer durch die hohe Flexibilität niemals an die Leistungsgrenze gelangen können. Bei Load Balancern, die auf einer kleinen Serverfarm aufbauen, ist dies hingegen vergleichsweise schnell der Fall.

3 Hyperscale Computing - Vorteile in der Praxis

Der Einsatz von Hyperscale Computing hat für Nutzer einige spezifische Vorteile. Dazu gehört natürlich die extreme Skalierbarkeit von Diensten. Aus praktischer Sicht gesehen gibt es hier keine Grenzen, was die Möglichkeit zur Anpassung der Leistung betrifft. Durch die Struktur und den Aufbau solcher Hyperscaler ist zudem eine Redundanz gewährleistet, die sonst kaum ein anderer Dienst erreicht. Ein Ausfall ist prinzipiell ausgeschlossen, da selbst ein lokaler Zusammenbruch des Netzwerks oder des Internets durch ein anderes Rechenzentrum aufgefangen wird.

Zu den Vorteilen solcher von Hyperscale Computing Infrastrukturen zählen weiterhin die kalkulierbaren Aufwendungen sowie die vergleichsweise niedrigen Kosten. Die meisten Anbieter dieser Services haben Abrechnungsmodelle, die auf der Nutzung der Ressourcen basieren. Somit wissen Nutzer sehr präzise, welche Kosten für eine bestimmte Leistung anfallen. Gleichzeitig reduzieren sich die Kosten auf ein Minimum, sobald die Ressourcen nicht in Anspruch genommen werden.

Durch die enorme Menge an potenzieller Rechenleistung ermöglicht das Hyperscaling, Projekte mit hohem Rechenbedarf innerhalb kürzester Zeit abzuschließen. Damit spart Hyperscale vor allem Zeit und das bedeutet gleichzeitig eine Kostenreduzierung. Außerdem stehen Ergebnisse beispielsweise bei der Anwendungsentwicklung oder der Analyse von Big Data zeitnah zur Verfügung. Gerade die Auswertung von Informationen aus dem Data Lake lässt sich mithilfe von Hyperscale Computing in Echtzeit realisieren. Mit eigenen Servern ist dies in der Regel nicht möglich, was ein großer Vorteil von Hyperscaling ist.

4 In welchen Situationen oder Bereichen kommt Hyperscale Computing zum Einsatz und für wen lohnt sich die Nutzung?

Hyperscale Computing kommt überall dort zum Einsatz, wo enorm hohe Mengen an Ressourcen benötigt werden. Es handelt sich in der Regel um Public-Cloud-Lösungen, sodass viele Nutzer simultan auf die Infrastruktur zugreifen. Auf dieser Infrastruktur betreiben die Anbieter Anwendungen, die speziell für diese Umgebung ausgelegt sind.

AWS sowie Microsoft betreiben eigene Rechenzentren und nutzen so Hyperscale Computing für ein breites Spektrum der eigenen Cloud-Services. Das Spektrum reicht hier von klassischem Computing in der Cloud über Datenbanken und Analysen bis hin zum maschinellen Lernen. Der S3 Simple Storage Service sowie die Entwicklungsumgebung für Anwendungen Simple Workflow Service (SWS) von AWS sind nur zwei der Beispiele.

Diese Plattformen und Dienste sind gekennzeichnet von ganz spezifischen Anforderungen der Benutzer. Bei der Anwendungsentwicklung benötigen die Nutzer die meiste Zeit über faktisch keine Rechenleistung. Sobald jedoch ein Projekt Leistung benötigt, steht diese dank Hyperscale Computing sofort und prinzipiell unbegrenzt zur Verfügung.

Wer also eine Cloud-Migration vornimmt und verstärkt auf diese Dienste zugreift, nutzt automatisch Hyperscaling. Ob es für ein Unternehmen sinnvoll ist, einen Dienstleister beziehungsweise einen Service mit Hyperscaling zu wählen, hängt von der Situation ab. Ein Infrastruktur-Consulting durch IT-Dienstleister wie TelemaxX ist zielführend, denn hier lässt sich identifizieren, ob der Einsatz von AWS oder Microsoft Azure die richtige Wahl ist.

Managed Services Managed Services

Das könnte Sie auch interessieren:

Bandbreite

Bandbreite, wie wird gemessen
und wie viel brauchen Unternehmen

Mehr Informationen

Business Server

So finden Unternehmen
die richtigen IT-Systeme

Mehr Informationen

Business Internet

Das sind die Unterschiede zu
einem privaten Internetanschluss

Mehr Informationen

Colocation

Colocation-Dienstleistungen
für Unternehmen

Mehr Informationen

Ready to do business? Sprechen Sie uns an!