Pressemitteilung

Mehr als Server und Kühlung: Vier Tipps für ein energieeffizienteres Rechenzentrum

Um was geht es in diesem Beitrag:

Lesen sie hier den Beitrag:

Mehr als Server und Kühlung: Vier Tipps für ein energieeffizienteres Rechenzentrum

Gigamon verrät, was Betreiber von Rechenzentren auf Netzwerkebene tun können, um sowohl den Energieverbrauch als auch Kosten zu senken.

Mehr als Server und Kühlung: Vier Tipps für ein energieeffizienteres Rechenzentrum

Rechenzentren sind für etwa zwei Prozent des weltweiten CO2-Ausstoßes verantwortlich. Allein in Deutschland haben sie 2020 die Energiebedarfsschwelle von 16 Milliarden kWh geknackt und 6,1 Millionen Tonnen Kohlenstoffdioxid produziert. Das ist nicht nur schlecht für die Umwelt, sondern verursacht signifikante Energiekosten. Vor allem in Anbetracht der steigenden Preise und des Drucks von Seiten der Klimapolitik ist ein strategischer Ansatz unumgänglich.

Energiesparendes Netzwerk – gewusst wie

In einem Rechenzentrum fressen sowohl der Server-Betrieb als auch die Storage- und Kühlsysteme den meisten Strom. Dabei fällt das Netzwerk häufig unter den Tisch. Alle Rechenzentren nutzen mehrere verschiedene Monitoring-, Security- und Analytics-Anwendungen, mit denen sie den Netzwerk-Traffic beobachten und analysieren.

Allerdings gehen Betreiber häufig davon aus, dass sie in hier nur wenig Kontrolle haben – weder über den Energieverbrauch des zugrundeliegenden Netzwerkverkehrs und der notwendigen Tools noch über die dadurch entstehenden Betriebs- und Energiekosten.

In Wahrheit können Betreiber bereits auf Netzwerkebene vier effektive Maßnahmen ergreifen – Stichwort: Sichtbarkeit mithilfe von Deep Observability. Nur wer genau weiß, wie sich der Netzwerk-Traffic zusammensetzt und welche Tools die verschiedenen Daten verarbeiten, kann für einen energie- und kosteneffizienten Rechenzentrumsbetrieb sorgen.

Application Filtering

Application Filtering identifiziert bekannte Anwendungen innerhalb des Netzwerks anhand ihrer Traffic-Signatur – selbst wenn sie verschlüsselt sind. Im Zuge dessen wird der Datenverkehr von vertrauenswürdigen Anwendungen, die in der Regel ein hohes Datenvolumen generieren, herausgefiltert, wodurch Daten mit hohem und niedrigem Risiko voneinander getrennt werden. Das reduziert die Datenmenge im Netzwerk, was wiederum den Energieverbrauch der Tools verringert.

Deduplikation

Redundanz spielt eine große Rolle, um die Verfügbarkeit und Ausfallsicherheit eines Rechenzentrums zu gewährleisten. Dabei werden Datenpakete im Netzwerk dupliziert. Das bedeutet jedoch, dass sich Analytics Tools automatisch durch ein doppelt bis vierfach so hohes Traffic-Volumen arbeiten müssen als auf Endnutzerseite eigentlich entsteht. Mithilfe von Deduplikation lassen sich mehrfach vorhandene Netzwerkdatenpakete einfach identifizieren und entfernen, bevor sie zur Analyse weitergesendet werden. Weniger Redundanzen bedeutet geringerer Energieverbrauch.

Flow Mapping

Es ist bequem, alle Tools auf Hochtouren sämtliche Daten verarbeiten zu lassen, die durch das Netzwerk fließen. Logischerweise sorgt eine solche Überflutung für einen hohen Energieverbrauch. Idealerweise kümmern sich die einzelnen Tools auch nur um die Datenpakete, die für sie relevant sind. Beim Flow Mapping wird genau das umgesetzt: So wird der Datenverkehr den passenden Tools zugeordnet.

Flow Slicing

Beim Flow Mapping geht es darum, dass den jeweiligen Tools nur die für sie relevanten Datenpakete und Informationen zugespielt werden. Vielen von ihnen reichen beispielsweise die initialen Setup-, Header- und Handshake-Informationen. Dagegen hilft Flow Slicing dabei, den Datenfluss entsprechend zu zerlegen und aufzuteilen. Dadurch verarbeiten Tools potenziell 80 bis 95 Prozent weniger Daten und verbrauchen folglich weniger Energie.

Fazit

In Kombination sorgen diese vier Maßnahmen dafür, dass die Monitoring, Security und Analytics Tools, die in einem Rechenzentrum zum Einsatz kommen, effizienter vorgehen und Betreiber erhalten die vollständige Kontrolle über die Datenverarbeitung, die in ihrem Netzwerk stattfindet. Dadurch lässt sich auch die Anzahl physischer, stromverbrauchender Geräte reduzieren. Allerdings braucht es dafür eine Deep-Obervability-Lösung, die auf Netzwerkebene für die nötige Sichtbarkeit aller Komponenten sorgt.

Transparenzhinweise zum Beitrag:

Gigamon

Gigamon bietet eine Lösung für Deep Observability, die verwertbare Informationen auf Netzwerkebene nutzt, um die Leistung von Observability-Tools zu optimieren. Diese leistungsstarke Kombination ermöglicht es IT-Organisationen, Sicherheits- und Compliance-Vorschriften einzuhalten, Ursachen für Leistungsengpässe schneller zu finden und den betrieblichen Verwaltungsaufwand von hybriden sowie Multi-Cloud-IT-Infrastrukturen zu minimieren. Damit können moderne Unternehmen vollständig in die Cloud migrieren. Gigamon unterstützt mehr als 4.000 Kunden weltweit, darunter über 80 % der Fortune 100 Unternehmen, neun der zehn größten Mobilfunkanbieter sowie hunderte von Regierungen und Bildungseinrichtungen weltweit.

weitere Beiträge zum Thema:

ERP: Enterprise-Resource-Planning

ERP ist das Herz jeder Digitalisierung

Das ERP-System bildet die Grundlage für beinahe jede firmenweite Digitalisierungs­strategie im Mittelstand. Dies ist eine Schlüsselerkenntnis aus dem neuen Report „ERP-Heraus­forderungen 2024“ der Stuttgarter PLANAT

Weiterlesen »