Mit der digitalen Transformation hat die IT-Infrastruktur enorm an Bedeutung gewonnen – bis hin zu einer Abhängigkeit, die KRITIS-relevante Teile der öffentlichen Versorgung und der Wirtschaft betrifft. IT-Experte Matthias Reidans erklärt, was das für die interne Dynamik von Rechenzentren bedeutet.
Die Digitalisierung hat sich auf breiter Front durchgesetzt und durchdringt immer neue Bereiche von Wirtschaft und Gesellschaft. Was in Großunternehmen mit Cloud Computing und Industrie 4.0 begann, zählt heute bereits zum Standard. Auch für viele Konsumenten sind inzwischen Selfserviceportale und digitale Assistenzsysteme selbstverständlich.
Diese Entwicklungen wurden durch die Covid-19-Pandemie beflügelt – die Folgen lassen sich am weltweit größten Internet-Austauschknoten DE-CIX in Frankfurt am Main ablesen: Dessen Peak-Traffic stieg im ersten Pandemiejahr von sechs auf zehn Terabit pro Sekunde. 2021 wurden sogar schon fast elf Terabit pro Sekunde erreicht. Aber nicht nur die Spitzen erlangten Höchstwerte: Mit einem Gesamtdurchsatz von 38 Exabyte im Jahr 2021 nahm der Datenverkehr um rund 20 Prozent zum Vorjahr zu.
Vorgelagerte Verteilerknoten übertrafen diesen Wert. So konnten der DE-CIX Hamburg, der DE-CIX Düsseldorf und der DE-CIX München ein Plus von 40 bis 70 Prozent in diesem Zeitraum verzeichnen. Das Wachstum der dort angeschlossenen Kundenbandbreite – zwischen 40 und 160 Prozent – lässt erahnen, wie sich der Trend fortsetzen wird.
Quantencomputing und KI in der IT
Für Rechenzentren heißt dies, die eigene Anbindung und die interne Bandbreite regelmäßig der Entwicklung anzupassen. So setzen hierzulande immer mehr Data Center auf Netzwerktechnik der 800G-Klasse, also für 800 Gigabit-Ethernet (GbE). Der nächste Schritt auf 1600G (1,6 Tb/s) ist in Zukunft zu erwarten.
Darüber hinaus muss die Infrastruktur im Rechenzentrum auch auf neue technologische Anforderungen reagieren. Hier geht es um viele Aspekte: Der Einsatz von Quantencomputing, die verstärkte Nutzung von KI auf Basis neuronaler Netze, die Portabilität und Interoperabilität im Umfeld von Multi-Cloud-Konzepten, der zunehmende Einsatz von DevOps und Microservices, beispielsweise zum Aufbau von Blockchains und darin eingebettete „Smart Contracts“, Trends wie Edge Computing oder die Zusammenlegung von Berechnung, Speicherung und Vernetzung in einem einzigen System (Hyperkonvergenz) — das alles verlangt nach geeigneten Strukturen und Architekturen in Rechenzentren.
Immer leistungsfähigere Hardware für größere Bandbreiten- und Datenspeicher-Kapazitäten sowie die Implementierung weiterer Anwendungen und Services werfen allerdings ein neues Problem auf: Wie können diese Ressourcen effizient gemanagt und betrieben werden?
IT-Lösungen für immer mehr Leistung
Hier sind zum einen moderne Managementkonzepte und -strategien gefragt. Hohe Flexibilität und eine enge Integration von Management-, Überwachungs- und Steuerungsfunktionen stehen dabei aktuell im Fokus. Virtualisierte oder softwarebasierte Strukturen haben sich dabei bewährt. So hat sich das Data Center Infrastructure Management (DCIM) zum Software Defined Data Center (SDDC) weiterentwickelt, begleitet von Software Defined Networks (SDN) beziehungsweise Software Defined Wide Area Networks (SDWAN).
Auf diese Weise können Netzwerkstrukturen, -funktionen und -services per Softwarekonfiguration schnell und mit überschaubarem Aufwand an neue Erfordernisse angepasst werden. Auch lassen sich neue, zusätzliche Ressourcen sehr einfach hinzufügen und dem Nutzer bereitstellen. Die damit verbundenen Skaleneffekte ermöglichen es, die wachsende, komplexer werdende Infrastruktur zu beherrschen, ohne im gleichen Maße Fachpersonal aufstocken zu müssen.
Stromsparende Hardware
Zum anderen spielt die Energieeffizienz eine immer größere Rolle. Die schnell steigenden Energiepreise stellen einen erheblichen Kostenfaktor dar. Stromsparende Hardware und energieoptimierte Steuerungsprozesse, ebenso intelligente Klimatisierungskonzepte, die Abwärme als Ressource und nicht als „Abfall“ behandeln, können sich schnell auszahlen. Die neugefassten Klimapläne der Bundesregierung zum früheren Erreichen der CO2-Neutralität und die kommende Taxonomie der EU sind zusätz- liche Faktoren, die schnell an Bedeutung gewinnen.
Der CO2-Fußabdruck eines Rechenzentrums wird insbesondere im gewerblichen Umfeld als Entscheidungskriterium größeres Gewicht einnehmen, wenn in der eigenen Klimabilanz auch Zulieferer und Dienstleister berücksichtigt werden. Im Rahmen der Taxonomie wird die Frage der Klimafreundlichkeit eines Unternehmens auf die Finanzierungskosten durchschlagen und damit
ebenfalls auf Wirtschaftlichkeit und Wettbewerbsfähigkeit.
Angesichts der steigenden Abhängigkeit von Wirtschaft und Gesellschaft von IT-Infrastrukturen sind allerdings Sicherheit und Zuverlässigkeit mit Abstand die wichtigsten Anforderungen. Wichtig für den KRITIS-Kontext ist, dass nicht nur die Kunden von Rechenzentren unter diese Definition fallen. Auch Provider und Data Center zählen selbst zur Kritischen Infrastruktur, wenn sie gewisse Schwellwerte überschreiten. So sind beispielsweise Zugangs- und Übertragungsprovider betroffen, die mindestens 100.000 Teilnehmer versorgen. Damit liegt beispielsweise die Grenze für DNS-Server und Top-Level-Domain-Registrare (TLD-Registry) bei 250.000 Domänen.
Ferner gelten DNS-Resolver als kritisch, die mehr als 100.000 Vertragspartner haben. Internet-Austauschknoten zählen ab 100 angeschlossenen autonomen Systemen zum Betroffenenkreis.
Seit am 1. Januar 2022 die Regularien verschärft wurden, bedeutet das zum Beispiel: Ab diesem Zeitpunkt gelten Rechenzentren bereits ab 3,5 MW als Kritische Infrastruktur. Davor lag die Grenze bei 5 MW. Auch bei Serverfarmen wurde der Schwellenwert von bisher 25.000 auf 10.000 physische oder 15.000 virtuelle
Instanzen herabgesetzt.
Design für KRITIS-Anforderungen
Ein erheblicher Teil der Anforderungen lässt sich erfüllen, wenn von Anfang an grundsätzliche Designkonzepte eingehalten werden. Dazu zählen insbesondere: „Redundanz, Modularität, Skalierbarkeit“ – unter diesem Titel stellt das Bundesamt für Sicherheit in der Informationstechnik (BSI) online eine eigene Veröffentlichung bereit, die anschaulich die verschiedenen Aspekte und Ausprägungen darstellt.
Ohne Redundanz, Modularität und Skalierbarkeit sind hoch- und höchstverfügbare Systeme nicht denkbar. Zugleich sind diese Prinzipien eng miteinander verknüpft. Darum geht es:
- Redundanz beschreibt das Vorhalten von zusätzlichen Systemen über den eigentlichen Bedarf hinaus, die bei Ausfall oder Störung als Ersatz dienen können. Im einfachsten Fall wird beispielsweise eine zweite USV (unterbrechungsfreie Stromversorgung) installiert. Eine besondere Form ist Redundanz durch Diversität. Damit ist der Einsatz von Systemen gemeint, die funktional gleichwertig, aber in der Regel von unterschiedlichen Herstellern sind, zumindest aber Produkte unterschiedlicher Chargen oder verschiedener Modellserien. So lassen sich Serien- und Konstruktionsfehler vorbeugen.
- Modularität bedeutet in diesem Kontext die Aufteilung von Leistung oder Kapazitäten auf mehrere kleine Einheiten: also statt einer USV mit 100 kVA der Einsatz von vier USVs mit je 25 kVA. Kommt es zu einer Störung, fällt die Funktion nicht komplett aus, sondern nur in einem Teil der Anlage. Redundanz lässt sich in diesem Fall mit einem zusätzlichen 25-kVA-Modul herstellen, das wesentlich günstiger ist als eine weitere 100-kVA-Anlage. Ebenso ist eine Diversifikation über die vier Module einfacher zu bewerkstelligen. Auch der Ersatz defekter Systeme ist dann wesentlich flexibler zu realisieren.
- Skalierbarkeit drückt die Fähigkeit aus, zusätzliche Einheiten hinzuzufügen, ohne die Anlage grundsätzlich neu zu planen oder aufwändig umbauen zu müssen. Je höher die Skalierbarkeit, umso einfacher lassen sich zusätzliche Ressourcen, also Rechenpower und Speicherplatz, Bandbreite und alle weiteren Systeme wie USV, Klimatisierung und Management hinzufügen.
Das Spektrum an Beweggründen, ein Rechenzentrum zu erweitern, zu modernisieren oder zu optimieren, ist vielfältig. Angesichts des ständig wachsenden Kreises der IT-Anwender, die unter den KRITIS-Begriff fallen, und der ständig wachsenden Sicherheitsanforderungen, die jedes Unternehmen heute erfüllen muss, ist es für die Betreiber von Rechenzentren ein Muss, sich bei anstehenden Veränderungen auch mit den KRITIS-Anforderungen auseinanderzusetzen.
Für die Umsetzung des Transformationsprojekts gilt: Für eine nahtlose Integration der KRITIS-Verordnung müssen die Anforderungen bereits im Planungsprozess berücksichtigt werden. Denn nur so können von Anfang an alle Parameter bedacht werden und die getroffenen Maßnahmen schließlich ihre volle Wirkung
entfalten.
Matthias Reidans
Der Autor
Matthias Reidans ist Senior Projektmanager Services bei Rosenberger OSI.