9 Minuten
Vor der Küste Shanghais wird eine leuchtend gelbe Kapsel für ein Experiment vorbereitet, das die Art und Weise, wie wir über Rechenzentren denken, verändern könnte. Ein chinesisches Unternehmen für maritime Technik plant, Mitte Oktober 2025 ein Modul mit Servern ins Meer zu versenken. Versprochen werden drastische Einsparungen bei der Kühlung — gleichzeitig werfen Bauweise und Umweltauswirkungen wichtige Fragen auf.
Warum Server unter Wasser? Ein einfacher Vorteil mit großen Folgen
Konventionelle Rechenzentren an Land verbrauchen enorme Mengen an Energie für Klimatisierung oder Verdunstungskühlung. Unterwasser-Rechenzentren nutzen einem einfachen physikalischen Vorteil: das Wasser ist kühler als die Luft an Land, insbesondere in tieferen Schichten und in Strömungen. Highlander, die maritime Ausrüstungsfirma hinter dem Shanghai-Projekt, argumentiert, dass Meeresströmungen die im Betrieb entstehende Wärme effizient abführen können — ohne energieintensive Kältemaschinen.
Das Unternehmen gibt an, die Kühlenergie um rund 90 Prozent reduzieren zu können. Die Kapsel dient Kunden wie China Telecom und einem staatlichen KI-Computing-Anbieter und steht im Kontext staatlicher Bemühungen, den CO2-Fußabdruck digitaler Infrastruktur zu senken. Doch die Rechnung ist komplex: Energieeinsparungen müssen gegen Bau-, Verbindungs- und Umweltkosten aufgewogen werden.
Technik unter Wellen: Kapseldesign, Korrosionsschutz und Energieversorgung
Ein Rechenzentrum, das dauerhaft unter den Wellen arbeitet, stellt andere technische Anforderungen als eines an Land. Highlander montierte das Modul zunächst an einem Kai nahe Shanghai, setzte die Teile zusammen und versiegelte sie dann in einer Stahlkapsel. Zur Abwehr von Salzwasserkorrosion wurde die Außenhülle mit einer Schutzschicht beschichtet, die unter anderem Glasflocken enthält. Ein Aufzug verbindet den untergetauchten Bereich mit einem Segment, das über Wasser bleibt, damit Wartungsteams auf interne Systeme zugreifen können.
Auf der Energiefront plant Highlander, fast den gesamten Strombedarf aus nahegelegenen Offshore-Windparks zu beziehen. Das Unternehmen schätzt, dass mehr als 95 Prozent der Energie aus erneuerbaren Quellen stammen werden. Frühere, staatlich geförderte Tests — etwa eine Versuchsanlage 2022 vor der Provinz Hainan — erhielten Subventionen, um die technologische Entwicklung voranzutreiben.
Architektur, Kühlkreislauf und Redundanz
Die technische Architektur unterscheidet sich je nach gewünschter Leistungsstärke. Kleine Pods können Passivkühlung und direkte Wärmeableitung nutzen; größere Megawatt-Systeme benötigen strukturierte Kühlkreisläufe, Wärmetauscher und klare Redundanzkonzepte für Strom und Netzwerk. Typische Designfragen sind:
- Welche Materialwahl reduziert Langzeitkorrosion und ermöglicht gleichzeitig gute Wärmeleitung?
- Wie wird die Wärme an die Umgebung abgegeben, ohne schädliche lokale Erwärmungen zu provozieren?
- Wie lassen sich Stromzufuhr und Glasfaser zuverlässig, sicher und zugänglich zum Festland führen?
Für den Schutz elektrischer Komponenten werden üblicherweise Mehrfachabdichtungen, hermetische Versiegelungen und interne Druckregelungen eingesetzt. Die Wartung erfolgt über die über Wasser bleibende Sektion oder durch ausgeklügelte Unterwasser-Serviceroutinen — ein zusätzlicher Kosten- und Risikofaktor.
Vom Versuchslabor zur kommerziellen Praxis: Lernkurve und Beispiele
Der Gedanke, Server unter Wasser zu betreiben, ist nicht neu. Microsoft testete 2018 eine ähnliche Lösung vor der schottischen Küste, setzte eine untergetauchte Datenkapsel ein, um Überlebensfähigkeit und Kühlung zu prüfen. Die Anlage wurde 2020 wieder geborgen; Microsoft bezeichnete den Versuch als technischen Erfolg, ging aber nicht in eine großflächige kommerzielle Einführung über. Solche Tests zeigen: das Konzept funktioniert im kleinen Maßstab — die Herausforderung ist die Skalierung auf Megawatt-Klassen.
Highlanders Projekt in Shanghai folgt dieser Entwicklungslinie, baut auf Erfahrungen früherer Tests auf und versucht, kommerzielle Kunden einzubinden. Prototypen liefern Erkenntnisse zu Konstruktion, Langzeitkorrosion, thermischer Abstrahlung und Kostenmodellen. Doch was in Laborversuchen funktioniert, erfordert im realen Betrieb robuste Lösungen für Betriebssicherheit, Netzanschluss und Umweltüberwachung.
Was der Härtetest offenbart
Praktische Tests haben mehrere wiederkehrende Themen hervorgebracht: Montage und Versiegelung dauern länger als geplant, Materialbehandlungen müssen routinemäßig kontrolliert werden, und die Abstimmung mit lokalen Netzanbietern ist komplex. Highlander gab zu, dass die Montage, Versiegelung und langfristige Korrosionsschutzmaßnahmen mehr Aufwand erforderten als ursprünglich prognostiziert. Zudem sind Subventionen ein wesentlicher Faktor: Highlander erhielt 40 Millionen Yuan (ca. 5,6 Millionen US-Dollar) für den Hainan-Versuch, ein Hinweis darauf, wie wichtig staatliche Unterstützung für Pilotprojekte bleibt.
Vorteile, Risiken und die Debatte um ökologische Folgen
Befürworter heben mehrere klare Vorzüge hervor:
- Deutliche Reduktion der Kühlenergie und damit verbundener CO2-Emissionen, falls die angegebenen 90 Prozent Einsparung skaliert werden können.
- Nähe zu Küstenkunden und zu Unterseekabeln, was Netzwerklatenz verkürzen könnte.
- Integration mit Offshore-Erneuerbaren: Windenergie kann direkt vor Ort eingespeist werden, wodurch der Bedarf an fossilen Backup-Lösungen sinkt.
Gleichzeitig mahnen Kritiker und unabhängige Forscher zur Vorsicht. Das Verlegen von Hochleistungskabeln (Glasfaser und Strom) vom Meeresboden ans Festland ist technisch anspruchsvoll und teuer. Forscherteams — etwa an der University of Florida und Gruppen in Japan — haben zudem darauf hingewiesen, dass Wasser akustische Angriffe leiten kann, sodass neue Sicherheitsvektoren entstehen könnten. Ein unterschätztes Problem ist die Wärmeabgabe selbst.
Der Meeresökologe Andrew Want von der University of Hull warnt, dass selbst moderate lokale Temperaturerhöhungen Verhalten und Verteilung von Arten verändern können: Manche Organismen werden angezogen, andere fortgezogen. Highlander verweist auf eine unabhängige Bewertung ihres Zhuhai-Versuchs aus 2020, nach der die umgebenden Gewässer in akzeptablen Temperaturgrenzen blieben. Doch Wissenschaftler wie Shaolei Ren von der University of California, Riverside betonen: "Bei Megawatt-skaligen Unterwasserrechenzentren muss das Thema thermische Belastung gründlicher untersucht werden."
Ökologische Monitoring-Strategien
Um Umweltauswirkungen zu begrenzen, empfehlen Experten ein umfassendes Monitoring:
- Langzeit-Temperaturmessungen in mehreren Tiefen und Entfernungen vom Modul
- Biologische Stichproben zur Beobachtung von Artenzusammensetzung und -verhalten
- Ökologische Baseline-Studien vor Installation, gekoppelt mit regelmäßigen Folgeuntersuchungen
- Transparente unabhängige Audits und veröffentlichte Messdaten
Nur so lassen sich lokale Effekte von natürlichen Schwankungen trennen und notwendige Gegenmaßnahmen rechtzeitig planen.
Sicherheit, Netzwerkarchitektur und betriebliche Herausforderungen
Auf der operativen Seite geht es nicht nur um Kühlung. Leistungsfähige Verbindungen für Strom und Daten sind kritisch. Die Verlegung von Seekabeln und Hochspannungskabeln erfordert spezielle Schiffe, präzise Planung und Schutz vor Fischerei, Schiffsanker und Naturereignissen. Zudem müssen Redundanz und Ausfallsicherheit gewährleistet werden, besonders bei mission-kritischen Anwendungen wie KI-Training oder Telekommunikation.
Weitere Aspekte:
- Sicherheitsbedrohungen: physische Eingriffe, akustische Angriffe oder elektromagnetische Störungen.
- Wartungslogistik: Wie werden defekte Server ersetzt? Welche Wartungsfenster sind praktikabel?
- Kostenmodell: Unterwasserinstallation kann höhere Anfangsinvestitionen und spezialisierte Betriebskosten bedeuten.
Die Kombination aus technischem Aufwand, regelmäßiger Wartung und speziellen Sicherheitslösungen macht klare Abwägungen zwischen Einsparpotenzialen und zusätzlichen Betriebskosten notwendig.
Angriffsvektoren und Datenschutz
Forscher haben gezeigt, dass Wasser Schall effizient leitet — ein Faktor, den Angreifer theoretisch ausnutzen könnten, um Signale zu übertragen oder Systeme zu stören. Zudem verlangt die physische Lage besondere Maßnahmen beim Datenschutz: Glasfaserkabel und Einspeisepunkte müssen gegen Manipulationen geschützt werden, und Betreiber müssen nachweisen, dass Datenintegrität und Zugriffskontrolle robust sind.
Wirtschaftliche Perspektiven, Subventionen und Regulierung
Unterwasser-Rechenzentren stehen wirtschaftlich auf mehreren Säulen: geringere Betriebskosten (vor allem durch reduzierte Kühlung), aber höhere erstmalige Investitionen für Engineering, Verkabelung und Spezialwartung. Staatliche Subventionen können Prototypen und frühe kommerzielle Angebote finanziell möglich machen — wie im Fall von Highlanders 40 Millionen Yuan Zuwendung für Hainan.
Regulatorische Rahmen spielen ebenfalls eine große Rolle. Genehmigungen benötigen Umweltverträglichkeitsprüfungen (UVP), Genehmigungen für Meeresnutzung, Absprachen mit Netzbetreibern und oft internationale Abstimmungen, wenn Kabel oder Standorte in grenznahe Gewässer reichen. Ohne klare Richtlinien bleibt die Investitionssicherheit gering.
Mögliche Geschäftsmodelle
Experten sehen verschiedene Einsatzfelder, in denen Unterwasser-Rechenzentren wirtschaftlich sinnvoll sein könnten:
- Küstennahe KI-Trainingscluster, bei denen hohe Kühlanforderungen anfallen
- Latency-sensitive Anwendungen für Inseln oder Offshore-Anwendungen
- Direkt an Windparks gekoppelte Rechenkapazität, die überschüssige Energie nutzt
- Temporäre, mobile Rechenkapazitäten für Forschungs- oder Katastropheneinsätze
In jedem Modell müssen Betreiber zeigen, dass Gesamtbetriebskosten und Umweltrisiken gut gemanagt werden können.
Wo passen Unterwasser-Rechenzentren ins größere Ökosystem?
Die meisten Fachleute vermuten, dass Unterwasser-Rechenzentren traditionelle Rechenzentren ergänzen werden — nicht ersetzen. Sie könnten Nischen bedienen: Küstennahe KI-Hubs, latenzkritische Dienste oder Rechenkapazität, die direkt mit Offshore-Erneuerbaren gekoppelt ist. Große Onshore-Rechenzentren mit ihren ausgereiften Netzwerken und etablierten Betriebsabläufen dürften weiterhin den Großteil der Workloads tragen.
Stellen Sie sich eine Zukunft vor, in der Teile des AI-Trainings offshore laufen, gekühlt von Meeresströmungen und gespeist von Windturbinen. Es ist eine verlockende Vision — doch um sie verantwortlich zu realisieren, braucht es mehr Forschung, strenge Umweltüberwachung und präzise Ingenieursarbeit.
Forschungslücken und nächste Schritte
Zu den wichtigsten offenen Fragen gehören:
- Langfristige Auswirkungen thermischer Ableitung auf marine Ökosysteme bei Megawatt-Skala
- Robuste, kosteneffiziente Verfahren für Korrosionsschutz und Materialalterung
- Sichere, redundante Verbindungsarchitekturen und Schutz gegen neue Angriffsvektoren
- Wirtschaftliche Modelle ohne dauerhafte staatliche Subventionen
Nur durch koordinierte Studien, Pilotanlagen mit offen zugänglichen Messdaten und interdisziplinäre Forschung wird sich klären lassen, ob Unterwasser-Rechenzentren ein praktikabler Baustein einer klimafreundlicheren digitalen Infrastruktur werden.
Ein Blick nach vorn
Projekte wie die Shanghai-Kapsel zeigen, dass technische Machbarkeit demonstriert werden kann. Gleichzeitig testsiehst man, dass Kosten, Betrieb und Umweltfragen komplex sind. Wenn Betreiber und Regulierer transparent arbeiten, Umweltdaten frei zugänglich machen und unabhängige Bewertungen aktiv einfordern, könnten Unterwasser-Rechenzentren künftig ein sinnvolles Nischenangebot darstellen — insbesondere dort, wo Kühlung und Nähe zu Offshore-Energiequellen einen echten Vorteil bieten.
Für die kommenden Jahre bedeutet das: Beobachten, lernen, und vorsichtig skalieren. Die Meere bieten enorme physikalische Ressourcen für das Rechenzeitalter — aber sie sind auch fragile Lebensräume, die verantwortungsvoll geschützt werden müssen.

Quelle: sciencealert
Kommentar hinterlassen