"KI rettet die Welt" – so könnten die Schlagzeilen lauten, wenn es nach vielen Unternehmen ginge. Tatsächlich hat KI das Potenzial, Ressourcen effizienter zu nutzen, erneuerbare Energien zu optimieren oder neue Materialien zu entdecken. Sie könnte eines der Schlüsselwerkzeuge zur Bekämpfung der Klimakrise sein. Doch was auf den ersten Blick wie eine Erfolgsgeschichte aussieht, wird bei näherer Betrachtung deutlich komplexer. Denn der Einsatz von KI hat erhebliche Auswirkungen auf CO2-Emissionen und andere Umweltbelastungen – das Gegenteil von ökologischer Nachhaltigkeit.
Beispielsweise verursachte das Training des Sprachmodells BLOOM, ohne indirekte Effekte, 24,7 Tonnen CO2. Zieht man die gesamte Lieferkette hinzu, verdoppelt sich dieser Wert. Solche Zahlen verdeutlichen den hohen Ressourcenverbrauch, der mit dem Betrieb von KI-Systemen einhergeht. KI-Systeme basieren oft auf ressourcenintensiver Technologie, und dennoch wird ihnen häufig ein Vertrauensvorschuss gewährt, dass die Technik „schon alles regeln werde“. Das Potenzial ist zweifellos groß, doch der Umgang mit den negativen Nebenwirkungen ist entscheidend.
Die Schattenseiten der KI
Es gibt wenig transparente Informationen darüber, wie viel Energie KI-Systeme tatsächlich verbrauchen und welche Emissionen sie verursachen. Einige vermuten, dass dies kein Zufall ist. Die fehlenden Daten machen es schwer, politische Lösungsansätze zu entwickeln, um die Umweltauswirkungen der Technologie zu begrenzen. Bekannt ist jedoch, dass Rechenzentren, die Produktion von Hardware und deren Betrieb einen erheblichen Beitrag zu den globalen CO2-Emissionen leisten. Diese Infrastruktur ist essenziell für den Betrieb von KI-Systemen – und das ist nur ein Teil des Problems.
Die sogenannte „Inferenzphase“, in der KI-Systeme auf Basis ihrer Modelle Ergebnisse liefern, wird oft unterschätzt. Die Inferenz bezeichnet die Phase, in der ein KI-Modell nach dem Training genutzt wird, um basierend auf Eingabedaten Vorhersagen, Entscheidungen oder Klassifikationen zu treffen, was oft durch wiederholte und ressourcenintensive Berechnungen geschieht. Während eine einzelne Inferenz wenig Energie verbraucht, läuft dieser Prozess in großen Plattformen wie Facebook oder Google milliardenfach ab. Laut Forschungen von Facebook AI aus dem Jahr 2022 laufen täglich Billionen von Inferenzen in den Rechenzentren des Unternehmens. Zwischen 2018 und 2019 verdoppelte sich die Anzahl der speziell für diese Aufgaben eingesetzten Server um das 2,5-fache.
Empfehlungsalgorithmen wie jene, die den Newsfeed von Facebook-Nutzer:innen kuratieren, sowie Bildklassifikation und Spracherkennung sind Beispiele für solche energieintensiven Anwendungen. Wissenschaftler:innen vermuten, dass die Emissionen aus der Inferenzphase oft höher sind als jene aus der Trainingsphase von KI-Modellen. Interne Zahlen von Facebook bestätigen dies: Die Inferenzphase verursacht in den hauseigenen Systemen einen signifikanten Ressourcenverbrauch, der in manchen Fällen den Trainingsaufwand deutlich übertrifft.
Ein globales Ressourcenproblem
KI verbraucht große Mengen an Rechenleistung und Energie. Besonders rechenintensiv sind das Training von Modellen sowie die Anwendung der gelernten Muster. Die dafür notwendige Hardware erfordert seltene Mineralien, deren Abbau häufig unter problematischen Arbeitsbedingungen erfolgt. Hinzu kommt, dass diese Ressourcen endlich sind und der Elektroschrott aus ausgemusterten Servern oft in Entwicklungsregionen landet, wo die Umweltfolgen erheblich sind.
Ein weiteres Problem ist der Wasserverbrauch. Laut Angabe von Microsoft, benötigte das Training des Modells GPT-3 in den Microsoft-Rechenzentren etwa 700.000 Liter Frischwasser, was in etwa der Produktion von 400 Mittelklasseautos entspricht. Doch das war das „Einsteigermodell“. Laut „Times“ ist davon auszugehen, dass das Modell Chat-GPT 4 in etwa das Vierfache an Ressourcen bedarf. Der direkte Wasserbedarf von Tech-Unternehmen wie Google oder Microsoft stieg in den letzten Jahren um bis zu 34 % – mit gravierenden Auswirkungen in Dürregebieten.
Effizienz als Falle: Der Rebound-Effekt
Die Effizienz von Hardware für KI-Systeme steigt kontinuierlich. Was nach einem Fortschritt klingt, führt jedoch oft zum gegenteiligen Effekt. Statt Energie einzusparen, nutzen Unternehmen diese Effizienzgewinne, um noch größere und komplexere Modelle zu entwickeln. Dieser sogenannte Rebound-Effekt treibt den Energieverbrauch weiter nach oben und verschlechtert die ökologische Bilanz der Technologie. Der Schlüssel zur Nachhaltigkeit liegt also darin, KI effizient einzusetzen und den Rebound-Effekt zu minimieren, indem z. B. datenminimalistische Ansätze genutzt und bestehende Modelle wiederverwendet werden.
Die EU-KI-Verordnung: Ein Schritt in die richtige Richtung
Mit der neuen EU-KI-Verordnung werden erstmals Berichts- und Dokumentationspflichten zur Ressourcennutzung von KI-Systemen eingeführt. Insbesondere General-Purpose-AI-Modelle (GPAI) müssen zukünftig ihren Energieverbrauch transparent offenlegen. Ziel ist es, den gesamten Lebenszyklus dieser Modelle – von der Entwicklung über den Betrieb bis zur Entsorgung – nachhaltig zu gestalten. Doch Transparenz allein reicht nicht aus: Es braucht ambitionierte Standards und verbindliche Auflagen, um die Ressourcennutzung zu minimieren.
Ein positives Beispiel ist die Plattform Hugging Face, die emissionsarme Modelle katalogisiert und Wiederverwendung fördert. Ihr Open-Source-Ansatz reduziert den Entwicklungsaufwand und spart Energie. Tools wie Code Carbon helfen dabei, den CO2-Fußabdruck von KI-Modellen in Echtzeit zu messen und datenminimalistische Ansätze zu etablieren.
Nachhaltige Alternativen für die Praxis
In Diskussionen über KI ist oft zu hören, dass Kontrollmechanismen ein Hemmschuh für Innovationen seien. Doch warum sollten soziale und ökologische (Nachhaltigkeits-)Standards Innovationspotenziale eindämmen? Warum sollte es eine unüberwindliche Hürde sein, KI auf eine richtige Art und Weise einzusetzen? Es mangelt nicht an praktikablen technischen Möglichkeiten, um die Folgen von KI-Systemen auf die Umwelt zu messen und Ressourcen einzusparen. Unternehmen können bereits ökologisch nachhaltig handeln. Sie müssen nur die vorhandenen Möglichkeiten nutzen. Ein erster Schritt könnte zum Beispiel darin bestehen, mit einem Self-Assessment-Tool zu ermitteln, wie nachhaltig ihre KI-Systeme sind. Den Anwendern muss daher vor Augen geführt werden, dass KI-Nutzung mit verstärktem Energiekonsum einhergeht - ähnlich wie bei den Anfängen der Verbrennungsmotoren - damals dachte auch keiner, dass es ein umwelt- oder gesundheitliches Problem werden könnte. Daher gilt es gerade jetzt das Bewusstsein für die Folgen der KI-Nutzung allgemein zu stärken.
Es gibt also bereits Lösungen, die zeigen, wie Nachhaltigkeit in der Praxis umgesetzt werden kann:
- Datenminimalismus: Kleine, effiziente Datensätze können denselben Nutzen erzielen wie große Datenmengen, verbrauchen jedoch deutlich weniger Energie.
- Effiziente Hardware: Unternehmen wie NVIDIA und AMD entwickeln Chips, die speziell auf Energieeffizienz ausgelegt sind.
- Nachhaltige Rechenzentren: Skandinavische und isländische Rechenzentren setzen auf erneuerbare Energien.
- Emissionsmessung: Tools wie Code Carbon bieten Echtzeit-Analysen des Energieverbrauchs.
- Wiederverwendbare Modelle: Vortrainierte Modelle können für unterschiedliche Anwendungsfälle angepasst werden.
Was CIOs und Nachhaltigkeitsmanager tun können
- Self-Assessments: Analysieren Sie die Nachhaltigkeit Ihrer KI-Systeme mit Tools wie dem Algorithm Watch Assessment.
- Transparenz: Dokumentieren und teilen Sie den Energieverbrauch Ihrer KI-Modelle.
- Partnerschaften: Arbeiten Sie mit Plattformen wie Hugging Face zusammen.
- Nachhaltige Beschaffung: Priorisieren Sie energieeffiziente Hardware.
- Berichterstattung: Erfüllen Sie die Vorgaben der EU-KI-Verordnung und informieren Sie Ihre Stakeholder.
Fazit: Nachhaltigkeit als Innovationsmotor
KI hat das Potenzial, einen entscheidenden Beitrag zur Bekämpfung der Klimakrise zu leisten. Unternehmen und politische Entscheidungsträger:innen sollten sich ihrer Verantwortung bewusst werden und gezielt in nachhaltige Technologien investieren. Nur durch verbindliche Standards, klare Zielvorgaben und innovative Ansätze kann KI zu einem echten Hebel im Kampf gegen den Klimawandel werden. Doch um dies zu erreichen, müssen wir ihre Entwicklung und Anwendung konsequent nachhaltig gestalten. Mindestens genauso wichtig, ist die Bewusstseinsbildung der Nutzer:innen über die Folgen der KI Nutzung – und dies hört nicht bei den CIOs auf.
Unternehmen, die Verantwortung übernehmen und auf Transparenz setzen, können nicht nur ihre ökologische Bilanz verbessern, sondern auch ihr Vertrauen bei Kund:innen und Investor:innen stärken. Jetzt ist die Zeit, Nachhaltigkeit als Motor für Innovation zu nutzen – für eine zukunftsfähige KI und eine lebenswerte Welt.
Quellen:
https://arxiv.org/pdf/2204.02311#appendix.B
https://algorithmwatch.org/de/nachhaltigkeit-ki-erklaert/
https://www.europarl.europa.eu/news/de/press-room/20210419IPR02302/eu-klimaneutralitat-bis-2050-europaisches-parlament-erzielt-einigung-mit-rat
BLOOM Sprachmodell und CO2-Emissionen
Quelle: https://arxiv.org/pdf/2204.02311#appendix.B
Hugging Face Blog, https://www.heise.de/hintergrund/CO2-Fussabdruck-Wie-gross-die-Emissionen-von-KI-Modellen-wirklich-sind-7347017.html
PaLM Modell von Google
Quelle: Nature
Facebook Inferenzen und Energieverbrauch
Quelle: Facebook AI Research: https://arxiv.org/pdf/2111.00364
GPT-3 Wasserverbrauch in Microsoft-Rechenzentren
Quelle: Microsoft Sustainability Reports
Chat-GPT 4 Ressourcenverbrauch
https://www.thetimes.com/uk/technology-uk/article/thirsty-chatgpt-uses-four-times-more-water-than-previously-thought-bc0pqswdr?utm_source=chatgpt.com®ion=global
Rebound-Effekt bei KI-Hardware
Quelle: https://sustain.algorithmwatch.org/der-rebound-effekt
Hugging Face Open-Source-Ansätze und Emissionsmessung
Quelle: Hugging Face Emissions Plattform
Code Carbon Tool
Quelle: Code Carbon
EU-KI-Verordnung
Quelle: Europäische Kommission
Algorithm Watch Assessment
Quelle: Algorithm Watch