Alle Beiträge von Ralph Hintemann

Wie kann Abwärmenutzung aus Rechenzentren mit KI gefördert werden?

DC-HEAT erforscht, wie mit Hilfe von Künstlicher Intelligenz die Planung und der Betrieb von Rechenzentren zukünftig so optimiert werden kann, dass die Abwärme genutzt und die negativen Umweltwirkungen der Rechenzentren minimiert werden. Der klimafreundliche Umbau der Wärmeversorgung ist eine der großen Herausforderungen der Zukunft. Öl und Gas als Energiequellen müssen auf Dauer ersetzt werden. Als alternative Wärmequellen stehen neben Solarthermie, Geothermie oder Biomasse insbesondere auch die Abwärme aus industriellen Prozessen oder aus Rechenzentren zur Verfügung. Gerade der Hotspot Frankfurt bietet sich an, die Abwärme aus Rechenzentren umfassend zu nutzen. Die Wärmemenge würde ausreichen, um dort in Zukunft alle Wohngebäude zu heizen und mit Warmwasser zu versorgen. Allerdings sind auf dem Weg dahin noch viele technische, organisatorische und wirtschaftliche Herausforderungen zu bewältigen. Künstliche Intelligenz stellt einen vielversprechenden Ansatz dar, die nutzbare Menge an Abwärme aus Rechenzentren sehr deutlich zu erhöhen.

„Eine intelligente Kopplung von Erzeugern und Nutzern von Wärme ist mit vielen komplexen Entscheidungen verbunden“, kommentiert Dr. Gunnar Schomaker vom Software Innovation Campus Paderborn die Rolle der KI im Projekt. „Maschinelles Lernen kann dabei unterstützen, mit den vielfältigen Einflüssen zum Beispiel in den Bereichen Energieverfügbarkeit, Umweltfaktoren, Nutzerverhalten oder Betriebsführung umzugehen. Es wird eine spannende Herausforderung, in DC-HEAT die Potenziale der KI zur Abwärmenutzung aus Rechenzentren zu erforschen und insbesondere die automatisierte Anwendung zu erkunden.“

Die Forscher untersuchen in DC-HEAT die Einsatzmöglichkeiten von KI in der Wärmenetzplanung und Standortplanung für Rechenzentren. Auch im Bereich der dynamischen Abstimmung von Wärmeangebot und -bedarfs sowie im Bereich der Einflüsse der Abwärme auf das Mikroklima der Stadt Frankfurt gibt es Möglichkeiten, Technologien des maschinellen Lernens zu nutzen.

Das Projekt wird von einem breiten Partnernetzwerk getragen. Neben NeRZ und dem Energiereferat der Stadt Frankfurt unterstützen auch die Initiative Digitales Hessen und der eco – Verband der Internetwirtschaft e.V. das Projekt. Dieser Schulterschluss bietet beste Voraussetzungen für den Erfolg dieses international sichtbaren Leuchtturmprojekts zum KI-Einsatz für die Nutzung von Abwärme aus Rechenzentren.

DC-HEAT wird gefördert durch das Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU) aufgrund eines Beschlusses des Deutschen Bundestages im Programm „KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen“.

Leistungsdichte in Rechenzentren steigt weiter an

Mit der Leistungsaufnahme der Server steigt auch die Leistungsdichte in den Rechenzentren und damit die Anforderungen an die Kühlung. Neue Kühltechniken können helfen, Rechenzentren auch weiterhin zuverlässig, effizient und nachhaltig zu betreiben.

Trends wie Cloud-Computing und Virtualisierung, künstliche  Intelligenz und andere Anwendungen im Bereich des High Performance Computing (HPC) stellen immer höhere Anforderungen an leistungsfähige Server. Dass dieser Leistungsanstieg auch mit einem steigenden Energiebedarf verbunden ist, zeigt auch eine NeRZ-Analyse von Messergebnissen nach dem SpecPower® Benchmark. Immer mehr Arbeitsspeicher, mehr und leistungsstärkere CPUs und zunehmend auch der Einsatz von Grafikprozessoren (GPUs) in Servern führen dazu, dass der Strombedarf eines durchschnittlichen Servers ansteigt. So ist die  maximale Leistungsaufnahme der nach dem SpecPower® Benchmark gemessenen Server mit zwei Prozessoren, deren Daten auf der Spec-Webseite veröffentlicht wurden, im vergangenen Jahrzehnt um durchschnittlich etwa 85% angestiegen.

Rechenzentren stehen also vor der Herausforderung, immer mehr Wärme auf immer engeren Raum abzuführen – und das möglichst zuverlässig, effizient und nachhaltig. Der gleichzeitige schrittweise Ausstieg aus der Nutzung halogenhaltiger Kältemittel stellt eine zusätzliche hohe Anforderung dar. Neue, effiziente Technologien können Rechenzentrumsbetreibende dabei unterstützen, diese Herausforderungen zu bewältigen. Ansatzpunkte stellen beispielsweise die die Heißwasserkühlung, die Verwendung von Wasser als Kältemittel oder die Nutzung von ADsorptionskältemaschinen dar. Ein weiterer Vorteil dieser Technologien: Sie sind nicht nur für große Rechenzentren interessant – ihr Einsatz lohnt sich auch schon in kleinen und mittleren Rechenzentren.

Weitere Informationen: www.ne-rz.de

Tool zur Erstbewertung der ganzheitlichen Energieeffizienz von Rechenzentren

Erbet wurde gemeinsam vom Unternehmen b.r.m., dem Borderstep Institut und der Universität Oldenburg entwickelt. Im Innovationsprozess wurden die potenziellen Anwender des Tools eng einbezogen.

Die Eingabe von Daten in das Tool erfolgt in zwei Schritten. In einem ersten Schritt wird nur die Art des Rechenzentrums, das Jahr der Inbetriebnahme und die Größe (in IT-Fläche) angegeben. Auf Basis dieser Werte werden dem Anwender mit Hilfe einer Datenbank Informationen zu vergleichbaren typischen Rechenzentren in Deutschland gegeben. Diese Informationen sind z.B. die typische Anzahl der Server, der Stromverbrauch im Jahr, der PUE-Wert und die Leistungsdichte. Außerdem werden vom Tool die Anteile von Herstellung, Transport und Entsorgung am ganzheitlichen Energiebedarf und an den CO2-Emissionen abgeschätzt.

Ziel von Erbet ist es, die Anwender zum Thema ganzheitliche Energieeffizienz zu sensibilisieren und eine Hilfestellung  zu bestehenden Energieeffizienzpotenzialen zu geben. Mit Hilfe des Kalkulator-Tools können konkrete Energie- und Kosteneinsparpotenziale errechnet werden. Zielgruppe für Erbet sind die Betreibenden von Rechenzentren aller Größen.

Link zum Online-Tool: https://www.tempro-energy.de/erbet/

Auch in der Corona-Krise: Austausch von RZ-Anwendern hat hohe Bedeutung

Das – bei allen Einschränkungen – die Krise auch neue Chancen zum Austausch bieten kann, zeigt das Online-Anwenderforum „Performant, effizient, grün – Neue Herausforderungen und Lösungen für Serverräume und Rechenzentren“ (siehe Bericht DatacenterInsider) des Netzwerks energieeffiziente Rechenzentren NeRZ. Mit über 60 Teilnehmern war das Forum besser besucht als die vier vorangegangenen Veranstaltung, an denen jeweils 40 bis 50 Teilnahmer anwesend waren. 

Das innovative Format mit Anwendervorträgen und intensiven Fachdiskussionen in getrennten Workshops fand einen sehr guten Anklang. Die Bewertung der Veranstaltung durch die Teilnehmer fiel mit einer Durchschnittsnote von 1,4 noch etwas besser aus als bei den auch immer sehr positiven Bewertungen der Präsenzveranstaltungen.

Ein weiterer Pluspunkt: Die Vorträge können als Video auch im Nachhinein noch angesehen werden. Sie sind auf der NeRZ-Webseite verfügbar: Link zu den Vorträgen

Performant, effizient, grün!

Auf dem fünften Anwenderforum des Netzwerks energieeffiziente Rechenzentren (NeRZ) werden diese Herausforderungen diskutiert und Lösungsansätze vorgestellt. Aufgrund der Corona-Pandemie findet die Veranstaltung dieses Mal in virtueller Form statt. Die hessische Ministerin für Digitale Strategie und Entwicklung Prof. Dr. Kristina Sinemus wird ein Grußwort sprechen. Schwerpunkt der Veranstaltung sind Vorträge und Videovorführungen von Rechenzentrumsbetreibern.

Die Online-Veranstaltung widmet sich insbesondere folgenden Themen:

  • Welchen neuen regulativen Herausforderungen müssen sich die Betreiber von Serverräumen und Rechenzentren in kleineren und mittelständischen Unternehmen stellen?
  • Wie entwickelt sich aktuell der Rechenzentrumsmarkt und wie verändern sich Kostenstrukturen im Rechenzentrumsbetrieb?
  • Welche Lösungsansätze gibt es, um künftig auch Serverräume und kleinere Rechenzentren wettbewerbsfähig in Hinsicht auf Energie- und Kosteneffizienz betreiben zu können?

Damit die intensive Diskussion der Themen nicht zu kurz kommt, werden zusätzlich zu den Anwenderberichten ausgewählte neue Herausforderungen in getrennten Workshops diskutiert.

Weitere Informationen und Anmeldung: hier

Energiebedarf der Rechenzentren in Deutschland steigt weiter an

Mit 14 Mrd. kWh im Jahr 2018 benötigen die Rechenzentren 6% mehr Energie als im Vorjahr (Abbildung). Dieser deutliche Anstieg ist insbesondere auf den Aufbau von Cloud-Computing-Kapazitäten zurückzuführen. Der Energiebedarf traditioneller Rechenzentren ist dagegen rückläufig. Gemäß Analysen im Projekt TEMPRO sind  Cloud Rechenzentren in Deutschland im Jahr 2018 für 23% des Energiebedarfs aller Rechenzentren verantwortlich. In Summe werden die (Energie-)Effizienzvorteile von Cloud Computing durch das starke Wachstum der Branche also mehr als ausgeglichen.

Die TEMPRO-Kurzstudie zur Entwicklung des Energiebedarfs der Rechenzentren wird in Kürze veröffentlicht. Sie befasst sich auch mit der zukünftigen Bedeutung von Edge Computing für den Energiebedarf der Rechenzentren.

Boom bei Kompaktrechenzentren?

Das Projekt HotFlAd – Abwärmenutzung aus Kompakt-Rechenzentren mit Hot-Fluid-Adsorptionskälte-System hat zum Ziel, eine wirtschaftlich attraktive Nutzung von Abwärme in Rechenzentren zu ermöglichen. Die NeRZ-Mitglieder dc-ce, InvenSor, Tobol, Thomas Krenn und Borderstep entwickeln und demonstrieren gemeinsam mit der TU Berlin und Noris Network eine Lösung zur Abwärmenutzung in Kompakt-Rechenzentren.

Zu dem Workshop in Berlin wurden Experten von Rechenzentrumsbetreibern und Forschungsinstituten eingeladen, um über die künftigen Marktpotenziale solcher Lösungen zu diskutieren. Die Experten sahen insbesondere beim Einsatz in Kombination mit 5G-Netzen und im Bereich von dezentralen Cloud-Lösungen große Chancen für energieeffiziente Kompaktrechenzentren. Bis zum Jahr 2025 werden mehrere tausende neue solcher Rechenzentren in Deutschland erwartet. Dabei reicht die Spannweite von Kleinstrechenzentren (bis 5 kW) im Bereich der öffentlichen 5G-Netze über Campus-Rechenzentren (bis 20 kW) bis zu dezentralen Edge-Cloud-Rechenzentren mit mehreren hundert Kilowatt elektrischer Anschlussleistung.

Die Ergebnisse des Workshops fließen in eine im Rahmen des Projekts HotFlAd durchgeführte Marktuntersuchung zu Edge-Rechenzentren ein, über die im Rahmen dieses Blogs weiter berichtet wird.

Weitere Informationen zum Thema Energieeffizienz in Rechenzentren: www.ne-rz.de

Künstliche Intelligenz – Fluch oder Segen für die Umwelt?

Auf europäischer Ebene sollen ab 2020 jährlich 20 Mrd. € investiert werden; die deutsche Bundesregierung hat bis zum Jahr 2025 insgesamt 3 Mrd. € für Investitionen in KI lockergemacht. Das sind allein in Deutschland immerhin eine halbe Milliarde Euro pro Jahr. Dagegen scheinen die 27 Mio. €, die das Bundesumweltministerium für die Förderinitiative „KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen“ bereitstellt, fast mickrig.

Dabei sind gerade die Potenziale für mehr Umweltschutz durch künstliche Intelligenz enorm und müssen im Angesicht der globalen Umweltprobleme möglichst schnell gehoben werden. Mit Hilfe von KI können komplexe Systeme wie das Klima besser verstanden werden. KI-Anwendungen bieten insbesondere im Bereich der Mobilität, der Energie und der Landwirtschaft viele Möglichkeiten, die Umweltbelastungen zu senken. Und auch für Rechenzentren gibt es „rosige“ Aussichten. Google konnte mit Hilfe des gekauften KI-Startups Deepmind den Energiebedarf der Rechenzentrumskühlung um 40% reduzieren. KI kann helfen, Nah- und Fernwärmenetze so zu konzipieren und zu betreiben, dass die Abwärme aus Rechenzentren besser genutzt werden kann.

Führt künstliche Intelligenz zu mehr Umweltschutz?

Dennoch ist es keineswegs ein Automatismus, dass KI zu mehr Umweltschutz führt. Schon seit Jahrzehnten ist festzustellen, dass sich die Hoffnungen zur Reduktion des Energie- und Ressourcenbedarfs durch digitale Technologien oft nicht erfüllen. Digitale Lösungen haben zwar eine enormes Umweltschutzpotenzial, unterstützen aber meist auch gleichzeitig das Wachstum des Energie- und Ressourcenbedarfs. Ein paar Beispiele:

  • Das papierlose Büro fast immer noch eine Illusion. Jeder Deutsche benötigt aktuell jährlich 242 kg Paper pro Kopf, das ist weltspitze. Im Jahr 1980 lag der Pro-Kopf-Papierbedarf in Deutschland noch bei 150 kg.
  • Telefon- und Videokonferenz werden zwar mehr und mehr durchgeführt, die Zahl der Dienstreisen nimmt aber dennoch zu. Sie ist zwischen 2004 und 2017 um fast 30% angestiegen
  • Digitale Logistiklösungen führen dazu, dass Lkw-Leerfahrten vermieden werden und Routen optimal geplant werden können. Das führt aber nicht zu weniger Verkehr. Im Gegenteil: Der Straßengüterverkehr hat zwischen 2010 und 2017 um mehr als 25% zugenommen.

Auch für KI-Anwendungen ist die Gefahr gegeben, dass sie nicht zu einer Umweltentlastung führen. Autonom fahrende Autos könnten zwar genutzt werden, um den Verkehr zu reduzieren. Das wäre der Fall, wenn wir uns künftig die Fahrzeuge teilen würden. Es ist aber auch möglich, dass die Zahl der Autos deutlich ansteigt, weil auch Kinder oder andere Personen ohne Führerschein ein eigenes Auto fahren können. Für den Güterverkehr ist es eine Illusion, dass autonom fahrende LKW zu weniger Verkehr führen. Wenn keine Ruhezeiten für die Fahrer mehr notwendig sind, können die LKWs praktisch rund um die Uhr genutzt werden.

Ein weiterer wichtiger Aspekt: Wie viel Energie und Ressourcen benötigen die KI-Anwendungen selbst? Gemäß Cisco haben Anwendungen aus dem Bereich „Database/Analytics/IOT” bereits heute einen Anteil von etwa 15% an den Workloads der Rechenzentren weltweit, Tendenz deutlich steigend. KI-Anwendungen in den Bereichen Deep-Learning, Simulationen und Prognosen benötigen teilweise enorme Rechenleistungen und verursachen so hohe Energie- und Ressourcenbedarfe. Forscher der University of Massachusetts haben ermittelt, dass das Training einer KI-Anwendung zur Spracherkennung fünfmal so viel CO2 erzeugt wie ein Auto während seiner gesamten Lebensdauer. Der Ressourcenbedarf der KI-Anwendungen ist ganz entscheidend von der verwendeten Hardware abhängig. Konventionelle CPUs sind für die meisten Anwendungen eher ungeeignet. Viel mehr Leistung – und damit auch weniger Energie – kann durch die Nutzung von Graphikprozessoren (GPUs), FPGAs (Field Programmable Gate Arrays) oder speziellen ASICs wie Googles TPU (Tensor Processing Units) erreicht werden. Auch neuromorphore Microchips bieten enorme Energieeffizienzpotenziale bei KI-Anwendungen. Die Frage, wie KI möglichst energie- und ressourceneffizient betrieben werden kann, wird bisher allerdings noch kaum gestellt. Neben der der Hardware sind hier auch die verwendeten Orchestrierungswerkzeuge, die KI-Frameworks und die KI-Modelle entscheidend.

Es besteht Handlungsbedarf für Politik und Unternehmen

Was ist also zu tun? Eines scheint klar: KI führt nicht von selbst zu mehr Umweltschutz. Politik und Unternehmen müssen in ihren Handlungen und konkreten KI-Projekten die Nachhaltigkeit der Lösungen immer mitdenken. Politische Maßnahmen müssen so gestaltet sein, dass die enormen Umweltschutzpotenziale der KI auch genutzt werden. KI darf nicht dazu führen, dass der Energie- und Ressourcenbedarf sogar weiter ansteigt. Unternehmen sollten – auch aus Kostengründen – ihre KI-Lösungen so entwickeln und einsetzen, dass sie möglichst effizient betrieben werden kann.

Letztendlich benötigen wir für KI-Anwendungen spezielle, optimierte, energie- und ressourceneffiziente Cloud-Architekturen und Cloud-Infrastrukturen. Diese können von den bekannten Global Playern angeboten werden. Aber auch der Aufbau von europäischen oder nationalen Lösungen scheint aus vielen Gründen eine überlegenswerte Alternative. Fördermittel in Milliardenhöhe ständen ja zur Verfügung.

Whitepaper von NeRZ und eco zum Thema Abwärmenutzung

Der Stromverbrauch der Rechenzentren steigt. Und damit auch die Menge der Abwärme, die ungenutzt an die Umgebung abgegeben wird. Allein in Deutschland sind das über 13 Mrd. kWh. Damit könnte eine Großstadt wie Frankfurt mit Wärme versorgt werden.

Wie eine NeRZ-Studie zeigt, haben Rechenzentrumsbetreiber in Deutschland ein hohes Interesse am Thema Abwärmenutzung. Bislang wird allerdings kaum Abwärme aus Rechenzentren genutzt. Als Gründe hierfür werden insbesondere die mangelnde Wirtschaftlichkeit und fehlende Abnehmer für die Abwärme angegeben.

Das neue Whitepaper zum Thema Abwärmenutzung aus Rechenzentren soll dazu beitragen, dass dem Thema Abwärme aus Rechenzentren mehr Aufmerksamkeit gewidmet wird. Insbesondere in Deutschland sind die gesetzlichen und wirtschaftlichen Rahmenbedingungen für Abwärmenutzung aus Rechenzentren noch sehr schlecht. Hier sind Rechenzentrumsbetreiber, Behörden, Politik und potenzielle Abwärmenutzer gefragt. Das Whitepaper zeigt anhand von vielen Beispielen auf, welche Möglichkeiten bereits heute bestehen und wie sich die Abwärmenutzung aus Rechenzentren in Zukunft entwickeln kann. Insbesondere deutsche Technologieunternehmen bieten Lösungen an, wie Abwärme aus Rechenzentren selbst unter schwierigen Rahmenbedingungen genutzt werden kann.

Weitere Informationen: www.ne-rz.de

Edge-Rechenzentren vor dem Durchbruch

Im nächsten Jahrzehnt werden insbesondere mit dem Ausbau der 5G-Netze, dem Aufbau von Systemen zum autonomen Fahren und Industrie4.0-Technologien immer mehr Klein- und Kleinstrechenzentren aufgebaut. Dabei reicht die Spannweite von Mikrorechenzentren mit wenigen Servern bis hin zu leistungsstarken Kompakt-Rechenzentren, in denen mehrere hundert bis tausend Serversysteme arbeiten. Die Edge-Rechenzentren verarbeiten Daten nahe am Entstehungsort. Entscheidend ist dabei meist, dass Datenmengen zu groß oder die Latenzzeit zu lang ist, um weiter entfernte zentrale Rechenzentren zu nutzen.

Der Aufbau dieser Rechenzentren wird allerdings nicht dazu führen, dass klassische zentrale Rechenzentren ersetzt werden. Im Gegenteil, je mehr Edge-Rechenzentren es gibt, desto größer wird auch der Bedarf an zentralen Rechenzentren. Edge Computing wird die Digitalisierung weiter voran treiben, ähnlich wie die Einführung von Personal Computern den Bedarf an zentraler IT erst richtig hat ansteigen lassen.

Aus Sicht der Umwelt stellt sich die Herausforderung, wie die neuen Edge-Rechenzentren möglichst energieeffizient betrieben werden. Die Gefahr ist groß, dass bei solch relativ kleinen Systemen das Thema Energieeffizienz vernachlässigt wird. Dabei gibt es kostengünstige, zuverlässige und energieeffiziente Systeme, die sich gerade für Edge-Rechenzentren anbieten. Eine solche Lösung, die auf flüssiggekühlten Servern beruht und mit Adsorptionskältemaschinen arbeitet wird im Projekt HotFlAd erprobt und praktisch umgesetzt.