Wenn Unternehmen darüber nachdenken, wie sie KI-Inferenzen in der Cloud oder am Netzwerkrand einsetzen können, wird die Umweltbelastung zu einem wichtigen Thema. Die Diskussion dreht sich oft um Energieeffizienz, aber Nachhaltigkeit geht über Stromrechnungen hinaus. Um den wahren ökologischen Fußabdruck von Edge- und Cloud-Computing zu bewerten, müssen wir drei Schlüsselfaktoren berücksichtigen: Energieverbrauch, Wasserverbrauch und Elektronikschrott.
Während Cloud-basierte Inferenzen dank Skaleneffekten und optimiertem Rechenzentrumsbetrieb in der Regel effizienter für die Ausführung großer, allgemeiner Modelle sind, ist dies nur ein Teil der Geschichte. Edge-Inferenz umfasst in der Regel kleinere, aufgabenspezifische Modelle, die auf Hardware eingesetzt werden, die auf bestimmte Arbeitslasten zugeschnitten ist. Dies ermöglicht hocheffiziente Berechnungen mit deutlich geringerem Energieverbrauch pro Vorgang.
Darüber hinaus verringert das schnelle Innovationstempo im Bereich der Edge-KI die Leistungslücke zur Cloud. Laptops und Desktops, die mit leistungsstarker, für KI optimierter Hardware ausgestattet sind - wie Qualcomm AI Engine, AMD Ryzen AI und NVIDIA RTX GPUs - sind jetzt in der Lage, große Sprachmodelle (LLMs) lokal auszuführen. HP beispielsweise hat kürzlich eine Reihe von KI-Laptops, Mini-PCs und Tower-Workstations vorgestellt, die LLM-Funktionen näher an den Benutzer bringen sollen. Diese lokalen Implementierungen können die Abhängigkeit von der Cloud-Infrastruktur verringern und gleichzeitig leistungsstarke KI auf dem Gerät ermöglichen.
1. Energieverbrauch
Warum Energie benötigt wird
Die Durchführung von KI-Inferenzverfahren verbraucht Energie, weil dabei große Datenmengen bewegt und verarbeitet werden müssen. Jeder Vorgang, wie z. B. die Multiplikation von Gewichten in einem neuronalen Netz oder der Zugriff auf den Speicher, erfordert physische Veränderungen an der Hardware, was zu einer Wärmeentwicklung führt.
Die benötigte Energie steigt mit der Größe des Modells und der Länge des Kontexts erheblich an. Und während der Durchschnittsnutzer vielleicht kurze Eingabeaufforderungen eingibt, umfassen Unternehmensanwendungen oft mehrseitige Dokumente oder anhaltende Interaktionen. Wie Sam Altman kürzlich feststellte, verbraucht eine einzige durchschnittliche KI-Eingabeaufforderung bereits so viel Energie, wie eine Glühbirne, die mehrere Minuten lang eingeschaltet bleibt. Multipliziert man dies mit der Komplexität der Arbeitslasten in Unternehmen, so steigt die Umweltbelastung schnell an.
Computereffizienz vs. Overhead
Während die theoretischen Energiekosten pro Bit-Operation minimal sind, hängt die Effizienz in der Praxis stark vom Hardware-Design ab. Speziell angefertigte Beschleuniger wie Hailo, Blaize und Axelera sind in der Lage, Inferenzen mit minimaler Verschwendung durchzuführen, insbesondere bei kleinen bis mittelgroßen Modellen.
In Rechenzentren summiert sich der Energieaufwand. Die PUE-Werte (Power Usage Effectiveness) liegen in der Regel zwischen 1,1 und 1,5, was bedeutet, dass 10 bis 30 % des Stroms einer Einrichtung nicht für Berechnungen, sondern für Kühlung, Stromumwandlung und andere Gemeinkosten verbraucht werden. Edge-Geräte hingegen arbeiten in weniger belastenden Umgebungen und verzichten oft ganz auf eine aktive Kühlung.
Zugang zu erneuerbarer Energie
Viele Cloud-Anbieter betreiben ihre Rechenzentren mit einem hohen Anteil an erneuerbarer Energie. Hyperscaler wie Google, Microsoft und AWS geben an, 60 bis 90 % erneuerbare Energie zu nutzen, und haben sich öffentlich verpflichtet, bis zum Ende des Jahrzehnts 100 % zu erreichen.
Edge-Implementierungen sind jedoch nicht unbedingt im Nachteil. In Europa zum Beispiel enthält der lokale Energiemix in vielen Regionen einen hohen Anteil an erneuerbaren Energien, der manchmal mit dem von großen Rechenzentren konkurriert oder diesen sogar übertrifft. Edge-KI-Geräte, die in solchen Umgebungen betrieben werden, können daher einen sehr geringen CO2-Fußabdruck aufweisen.
2. Wasserverbrauch
Zur Kühlung von Hochleistungs-Cloud-Hardware werden häufig wassergekühlte Systeme eingesetzt. Obwohl die meisten Hyperscaler geschlossene Kreislaufsysteme oder luftgekühlte Systeme einsetzen und das Ziel verfolgen, wasserneutral zu sein, ist der Wasserverbrauch derzeit noch ein nicht zu vernachlässigender Faktor.
Edge-Geräte hingegen benötigen nur selten eine aktive Kühlung und vermeiden die mit dem Betrieb von Rechenzentren verbundenen Probleme des Wasserverbrauchs vollständig.
3. Elektronikschrott (E-Waste)
Die Infrastruktur von Rechenzentren ist auf Langlebigkeit ausgelegt, wobei Server in der Regel 5 bis 7 Jahre halten. Die rasante Entwicklung von KI-Hardware bedeutet jedoch, dass viele Grafikprozessoren alle 2 bis 3 Jahre aufgerüstet werden, um die Vorteile einer verbesserten Energieeffizienz und Leistung zu nutzen, wodurch Elektronikmüll entsteht, bevor die Geräte ihr physisches Lebensende erreichen.
Beim Edge-Computing werden häufig Verbrauchergeräte oder eingebettete Geräte verwendet, die eine vergleichbare Lebensdauer haben - in der Regel 2 bis 4 Jahre.
Schlussfolgerungen
Die Edge-KI mit ihrem engeren Anwendungsbereich und ihren spezialisierten Modellen läuft oft auf 10- bis 100-mal kleineren Architekturen als die in der Cloud verwendeten. Mit moderner Hardware, wie den KI-Chips von Hailo und AMD Ryzen AI, können diese Modelle effizient mit minimalem Overhead und deutlich geringerem Energieverbrauch ausgeführt werden.
Die Cloud-Inferenz spielt eine Rolle bei großen, allgemeinen Arbeitslasten. Sie ist jedoch mit einem höheren Energieaufwand, Wasserkühlungsanforderungen und schnellen Hardware-Aktualisierungszyklen verbunden.
Bei durchdachtem Einsatz und vor allem in Regionen mit sauberem Strom kann Edge-KI erhebliche Umweltvorteile bieten. Da sich der Markt mit Angeboten wie der neuen KI-PC-Reihe von HP rasch weiterentwickelt, wird die Möglichkeit, den CO2-Fußabdruck von KI durch die lokale Ausführung von Arbeitslasten zu reduzieren, immer praktischer.
Edge Computing ist ein leistungsfähiges Werkzeug, um KI nicht nur intelligenter, sondern auch umweltfreundlicher zu machen.