Das Aufkommen von KI und anderen disruptiven Technologien hat zu einem beispiellosen Anstieg des Datenverkehrs geführt, der die weltweite Energienachfrage in die Höhe treibt. Bis 2030 könnte sie sich vervierfachen. Hier drängen sich Fragen zur Nachhaltigkeit auf. [...]
Die International Energy Agency (IEA) schätzt, dass sich der Energieverbrauch bis zum Jahr 2024 vervierfachen könnte und KI dann mehr als doppelt so viel Strom benötigt wie laut deutschem Statistischen Bundesamt ganz Deutschland im Jahr 2024.
Umso mehr drängen sich folgende Fragen auf: wie können wir der wachsenden Nachfrage gerecht werden, ohne unseren Planeten zu gefährden? Wie lassen sich KI, Nachhaltigkeit und Energieeffizienz ohne Leistungseinbußen miteinander vereinbaren?
Erst Anfang dieses Jahres fand in Frankreich der globale KI-Gipfel statt, der sich mit den Umweltauswirkungen der künstlichen Intelligenz, insbesondere im Zusammenhang mit dem Ausbau von Rechenzentren, befasste. Ein wichtiges und entscheidendes Ergebnis war die Gründung der der internationalen Initiative Coalition for Sustainable AI, um die KI-Innovation auf einen umweltfreundlicheren Weg zu bringen.
Auch wenn solche grenz- und branchenübergreifenden Partnerschaften ein erster wichtiger Schritt in die richtige Richtung sind, beginnt ein dauerhafter Wandel bei der Technologie selbst. Im Umkehrschluss bedeutet das, dass die Antwort für eine nachhaltige KI-Infrastruktur im Fundament der Datenverarbeitung stattfindet: dem Prozessor. Dass jedenfalls ist der Ansatz von Ampere Computing, die auch der Coalition for Sustainable AI angehören. Weitere Mitglieder sind u.a. Nvidia, IBM, Mistral AI, Lenovo, SAP und viele mehr.
Moderne CPUs liefern hierbei die Leistung, die Rechenzentren benötigen, und verbrauchen dabei deutlich weniger Energie als alternative Lösungen. In einer Zeit, in der die Industrie nach mehr GPU-Leistung verlangt, ist es wichtig zu wissen, dass 85 Prozent der KI-Workloads keine GPUs benötigen. CPUs sind eine effizientere und nachhaltigere Alternative, da sich die Branche vom Modelltraining zur Modellbereitstellung bewegt.
Das Halbleiterunternehmen Ampere entwickelte die weltweit ersten Cloud-nativen Prozessoren, mit denen man die Zukunft des Cloud Computing nachhaltiger gestalten will. Denn die Ampere-Prozessoren wurden nach eigenen Angaben „für die nachhaltige Cloud mit der höchsten Leistung und der besten Leistung pro Watt entwickelt und beschleunigen die Bereitstellung aller Cloud-Computing-Anwendungen“. Ampere Cloud Native-Prozessoren sollen demnach branchenführende Cloud-Leistung, Energieeffizienz und Skalierbarkeit bieten.
„Mit Cloud-nativen Prozessoren und voroptimierten Frameworks können CPUs die für KI-Workloads erforderliche Leistung liefern und gleichzeitig die Energieeffizienz drastisch verbessern sowie die Kosten senken“, erklärt Jeff Wittich, Chief Product Officer bei Ampere Computing. „Bei der Nutzung des Whisper-Modells von OpenAI übertreffen Ampere-CPUs verschiedene GPU-basierte Lösungen um das bis zu 2,9-fache und verbrauchen dabei deutlich weniger Energie pro Inferenz.“ Das sei die Art von Innovation, die die Industrie brauche, um KI nachhaltig zu skalieren, so Wittich.
Während sich die Welt mit der Frage beschäftigt, wie KI verantwortungsvoll skaliert werden kann, ist die Optimierung der Kerninfrastruktur – wie CPUs – ein praktischer und unmittelbarer Schritt, um den CO2-Fußabdruck der digitalen Transformation zu reduzieren.
Weitere Informationen finden Interessierte u.a. unter Ampere Computing und unter www.sustainableaicoalition.org.

Be the first to comment