Die KI braucht's kühl: So viel Strom frisst ein Münchner Rechenzentrum

Garching – Es fühlt sich an wie im Heizungskeller. Rohre, die sich winden, überall wo man hinblickt. In einem Rechenzentrum würde man das nicht erwarten – kennt man doch die Bilder von langen Serverkolonnen aus dem Fernsehen. Die gibt es natürlich auch zu sehen, als die AZ im Leibniz Rechenzentrum (LRZ) in Garching zu Besuch ist.
Das gehört der Bayerischen Akademie der Wissenschaften und ist unter anderem das Rechenzentrum für TU und LMU. In Bayern spielt es eine zentrale Rolle, denn es ist kein reiner Serviceanbieter, sondern hier wird selbst geforscht.
Söder warnt vor Strombedarf
Ministerpräsident Markus Söder (CSU) wird nicht müde, auf die Bedeutung von KI und den damit verbundenen Energiebedarf hinzuweisen. Bis zu 55 Millionen Euro will Bayern im Rahmen der Hightech-Agenda bis Ende 2028 ins LRZ Garching und ein weiteres Rechenzentrum in Erlangen investieren. "Gerade in Bayern als Top-Wirtschaftsstandort wird der Strombedarf durch Digitalisierung, KI und E-Mobilität massiv steigen", schrieb Söder erst im Februar auf X.
Aus diesem Grund plädierte die CSU bei den Koalitionsverhandlungen für den Wiedereinstieg in die Kernkraft – konnte sich jedoch in den Koalitionsverhandlungen nicht durchsetzen.
Atomenergie bezieht das LRZ in Garching derzeit nicht. "Wir haben zu 100 Prozent zertifizierten Naturstrom", sagt Dieter Kranzlmüller, der das LRZ leitet, beim Rundgang. Die Angebotsschwankungen, die Strom aus Erneuerbaren Energien früher hatte, seien aber inzwischen vorbei und kein Problem mehr.
Warum braucht KI so viel Energie?
Dass ganz schön viel Strom gebraucht wird, kann einem schwanen, sieht man die Korridore und Etagen voller Rechner. Es surrt nur so. Und bläst: Denn die Rechner müssen gekühlt werden, um die Leistung zu bringen.
Warum braucht KI überhaupt so viel Strom? Gerard de Melo leitet das Fachgebiet "Künstliche Intelligenz und intelligente Systeme" am Hasso-Plattner-Institut in Potsdam. Unterscheiden müsse man zwischen zweierlei Phasen, sagt er der AZ: "Dem Trainingsprozess, bei dem ein KI-System überhaupt erst seine Fähigkeiten erlangt, und der nachfolgenden Inbetriebnahme des Modells, um Anfragen zu beantworten."
Der große Durchbruch der KI in den letzten Jahren beruhe darauf, dass immer größere Modelle über immer längere Zeiträume hinweg trainiert würden.
Wobei er betont: "KI wird nicht über Nacht schlau: Damit ein KI-System überhaupt erst seine Fähigkeiten erlangt, muss es einen langwierigen Trainingsprozess durchlaufen, oft über Monate hinweg auf Tausenden von Maschinen in einem großen Rechenzentrum.
Strombedarf soll sich verdoppeln
De Melo weiter: "Der benötigte Strom für den nachfolgenden Einsatz, um eine einzelne Anfrage zu beantworten, ist im Vergleich dazu erst einmal winzig klein." Allerdings bedienen die marktführenden Anbieter inzwischen viele Millionen von Anfragen, sodass es hier in der Summe doch zu einem erheblichen Energieverbrauch kommt. Die Internationale Energieagentur prognostiziert, dass sich der Strombedarf von Rechenzentren bis 2030 mehr als verdoppeln wird.
Für die USA gehen die Experten davon aus, dass Rechenzentren bis 2030 mehr Strom verbrauchen als die Erzeugung aller energieintensiven Güter wie Zement, Chemie und Stahl zusammen.
Die AZ-Redakteurin kommt in einem Gang des LRZ gehörig ins Schwitzen: 45 Grad hat es dort zwischen den Rechnerkolonnen, abgetrennt ist er mithilfe von zwei Schiebetüren. "Denn die Energie wollen wir nutzen", sagt Kranzlmüller.
Plus 65 bis 80 Prozent für Kühlung
Der LRZ-Chef bleibt an einem ein Meter breiten und etwa zwei Meter hohen Schrank mit einem Rechner mit 16 KI-Prozessoren stehen und erklärt, dass allein der so viel Strom zieht wie 16 Einfamilienhäuser. Zum Strom, den das Gerät fürs reine Rechnen braucht, kommen noch mal 65 bis 80 Prozent dazu: Der ist nötig, um die Prozessoren zu kühlen.
Ein paar Meter weiter zeigt er schon eine Weiterentwicklung: Dieser Rechner mit der BayernKI hat deutlich mehr Leistung, wird aber mit winzigen Wasserleitungen gekühlt. Wasser kühlt nämlich besser als Luft.
So sind auf der kleinen Fläche 144 statt nur 16 Prozessoren untergebracht – und das bei nur zwei Prozent zusätzlichem Kühlstrom. Kranzlmüller ist sichtlich stolz: "Das ist die dichteste KI-Installation der Welt!"
Eisige Kälte im Quantencomputer
Außerdem hängt da noch ein Quantencomputer. "Dieser Aufbau kostet für fünf Jahre strommäßig etwa 50.000 Euro – also das, was wir in zwei Tagen an Strom brauchen", sagt Kranzlmüller. Das Projekt sei das, was die Leute am meisten interessiere.
"Das Problem ist, dass der Rechner nahe dem absoluten Nullpunkt arbeitet." Er spricht nicht von null Grad Celsius, sondern 8,8 Millikelvin – das entspricht etwa minus 270 Grad Celsius und ist somit kälter als im Weltall.
"Der Quantenprozessor muss so weit heruntergekühlt werden, damit er überhaupt rechnen kann. Das nennt man supraleitend und es bedeutet, dass der elektrische Widerstand praktisch Null und die Leitfähigkeit nahezu unendlich wird", sagt Kranzlmüller.
In einem geschlossenen Kreislauf am LRZ werden die Rechner per Wasser gekühlt. Dieses erhitzte Wasser wird dann wiederum am Dach auf maximal 45 Grad heruntergekühlt – möglich ist das einfach, weil es in Bayern nicht so heiß ist.
"Das kann aber schon ein Thema sein in Regionen, in denen es deutlich wärmer ist", sagt Kranzlmüller. Ob Rechenzentren in tropischen Gebieten sinnvoll sind, werde deshalb debattiert.
Das Wasser selbst wird wiederverwendet, nur ein ganz kleiner Teil verdunstet. Die Wärme wiederum nutzt das LRZ, um seine Gebäude zu heizen. Wobei so viel Wärme entsteht, dass bald auch noch Gebäude der TU in Garching davon beheizt werden sollen.