Künstliche Intelligenz (KI) verändert bereits heute unsere Lebens- und Arbeitsweise und hat das Potenzial, ganze Branchen und die Welt zu revolutionieren. Man geht davon aus, dass sie Werte in Billionenhöhe schaffen wird, von der Verbesserung der Vorhersagen katastrophaler Wetterereignisse bis hin zur Beschleunigung der Entdeckung und Bereitstellung lebensrettender Medikamente.
Einzelpersonen nutzen es als virtuelle Assistenten und Copiloten. Unternehmen und Mitarbeiter setzen es ein, um die Effizienz in mehreren Schlüsselbereichen zu steigern, darunter Kundenservice, Finanzen und andere Bereiche.
Im Mai ergab ein McKinsey-Bericht, dass sich die Anzahl der Unternehmen, die generative KI (Gen AI) einsetzen, in den letzten 10 Monaten auf 65% fast verdoppelt hat. Eine aktuelle Studie des IBM Institute for Business Value (IBV) ergab, dass 77% der Befragten der Meinung waren, dass sie Gen AI schnell einführen müssten, um mit den Kunden Schritt zu halten.
Die rasche Zunahme der KI-Nutzung hat auch zu einem dramatischen Anstieg des Energieverbrauchs geführt. Energie wird sowohl für die Erstellung und das Training von KI-Modellen als auch für die komplexen mathematischen Berechnungen benötigt, die ein Modell jedes Mal durchführt, wenn es um Informationen gebeten wird oder Inhalte generieren soll.
Die Internationale Energieagentur (IEA) hat vorgeschlagen, dass die Integration von KI in bestehende Tools wie Internet-Suchmaschinen zu einem zehnfachen Anstieg des Strombedarfs führen könnte. Die IEA prognostiziert, dass sich der Anteil der weltweiten Elektrizität, der Rechenzentren mit Strom versorgt, bis 2030 verdoppeln wird.
KI ist nicht die erste Technologie, die Probleme mit dem Energieverbrauch aufwirft. Ähnliche Bedenken wurden in den frühen 2000er Jahren durch das Cloud Computing ausgelöst, konnten aber glücklicherweise durch Innovationen vermieden werden. Nichtsdestotrotz steht das Thema für viele Führungskräfte ganz oben auf der Agenda, da die Einführung von KI weiter fortfahren und Unternehmen nach stabiler, erschwinglicher Elektrizität auf wettbewerbsfähigen Energiemärkten suchen.
Doch während dieses KI-Booms verfolgen viele Unternehmen weiterhin ehrgeizige Nachhaltigkeitsziele. 45 % der Unternehmen von S& P haben sich verpflichtet, netto null zu produzieren, und Gartner hat mitgeteilt, dass 42 % der Führungskräfte ihre Nachhaltigkeitsbemühungen als wichtiges Unterscheidungsmerkmal betrachten.
Infolgedessen stehen viele Unternehmen nun vor einer doppelten Aufgabe: sie müssen den erhöhten, KI-gestützt Energieverbrauch in ihren Nachhaltigkeitszielen berücksichtigen und gleichzeitig die branchenweiten Bemühungen unterstützen, die KI energiefreundlicher zu gestalten.
Niemand erwartet, dass sich die Einführung von KI verlangsamen wird, weil zu viele Unternehmen und Führungskräfte sie als unverzichtbaren Teil ihrer Zukunft ansehen. Diese beiden Ziele miteinander zu verbinden — die Nutzen der KI zu nutzen und gleichzeitig im Rahmen von Netto-Null voranzukommen — erfordert einen intelligenten Ansatz.
Glücklicherweise arbeiten zahlreiche Branchenexperten an verschiedenen Lösungen. Zu den Lösungen gehören:
Es hat sich gezeigt, dass Hardware mit Power-Capping den Energieverbrauch um bis zu 15 % senken kann, während sich die Zeit, die für ein Ergebnis benötigt wird, nur um kaum merkliche 3 % verlängert.
Der Energieverbrauch von KI kann auch durch den Einsatz kohlenstoffeffizienter Hardware reduziert werden, was laut MIT „einem Modell mit dem kohlenstoffeffizientesten Hardware-Mix entspricht“.
Neue und verbesserte Chips sind eine weitere Lösung für Energiefragen. IBM hat vor kurzem Details zur Architektur des IBM Telum II Prozessors und des IBM Spyre Accelerators veröffentlicht, die den Energieverbrauch von KI-basierten Systemen und den Platzbedarf in Rechenzentren reduzieren sollen, wenn sie 2025 auf den Markt kommen.
Im Allgemeinen benötigen größere Modelle – wie z. B. generalistische große Sprachmodelle (LLMs), die von ChatGPT und Google Gemini verwendetwerden – mehr Energie als kleinere. Solche generalistischen Modelle können für weitreichende verbraucherorientierte Bedürfnisse nützlich sein, aber für Unternehmen mit spezifischen Anwendungsfallen empfehlen IBM und andere Unternehmen kleinere, effizientere, erschwinglichere und weniger energieintensive Modelle.
Bestehende Methoden zum Trainieren von Modellen benötigen viel Energie, da KI-Entwickler oft mehrere frühere Modelle als Ausgangspunkt für das Trainieren neuer Modelle verwenden. Die Ausführung all dieser Modelle erhöht den Energiebedarf.
Forscher versuchen jedoch, besser vorherzusagen, welche Modelle die Erwartungen übertreffen und welche nicht, und die leistungsschwächeren Modelle frühzeitig zu stoppen, um Energie zu sparen. Dies alles ist Teil der aufkeimenden „ Designing for Sustainability“-Bewegung, die Workload-Parameter definiert, um Energie effizienter zu nutzen.
Alle Unternehmen sollten darauf achten, Rechenzentren in der Nähe von Gebieten zu bauen oder zu nutzen, in denen es reichlich erneuerbare Energie gibt. Die Nutzung grüner Rechenzentren, die erneuerbare und nachhaltige Energie nutzen, ist eine hervorragende Möglichkeit, die Umweltbelastung zu verringern.
Unternehmen, die im KI-Bereich tätig sind, sollten sich durch übermäßigen Wettbewerb nicht davon abhalten lassen , Tipps und Tools auszutauschen , mit denen die Gesellschaft von den Vorteilen von KI-Modellen mit geringerem Energiebedarf profitieren kann.
IBM hat mit der Columbia University zusammengearbeitet, um sinnvolle Lösungen für die Energiekrise zu entwickeln, einschließlich der Modellierung, wie sich KI auf verschiedener Hardware verhält, der Entwicklung von Chips mit geringerem Stromverbrauch, der Beseitigung von Software-Blähungen und der Optimierung von KI-Systemen.
Zusätzlich zu diesen verschiedenen Ansätzen kann die KI selbst zur Problemlösung in Bezug auf ihren Energiebedarf beitragen.
Einer aktuellen IBM-Studie zufolge nutzen 74 % der befragten Unternehmen in der Energie und Versorgung Branche KI, um datenbezogene Herausforderungen zu bewältigen. Dies könnte ihnen helfen, ihre Effizienz zu steigern und ihre Auswirkungen auf die Umwelt zu verringern. Von der Wartung bis zur Lastprognose hat KI das Potenzial, einen enormen Einfluss auf die Energiebranche zu haben und eine effizientere Energieversorgung aller anderen Branchen zu ermöglichen.
IBM hat eine führende Rolle bei der Umstellung auf saubere Energie übernommen und in Zusammenarbeit mit APQC das Clean Electrification Maturity Model (CEMM) entwickelt. Dieses Modell soll Energieunternehmen bei der Durchführung von Reifegradbewertungen helfen, damit sie ihre Ergebnisse vergleichen und ihre eigene Energiewende beschleunigen können.
Dieselbe Studie ergab, dass bis Ende 2024 63 % der befragten Unternehmen planen, generative KI in nachhaltigen IT-Initiativen einzusetzen. Doch nur 23 % berücksichtigen derzeit in hohem Maße Nachhaltigkeitsbewertungen während der Entwurfs- und Planungsphasen von IT-Projekten. Das muss sich ändern.
Es ist gut, dass es bereits eine robuste Diskussion über Energienutzung und KI gibt, und hoffentlich folgen weitere Durchbrüche zur Minimierung des Energieverbrauchs auf die, die wir bereits erzielen.
IBM engagiert sich besonders dafür, kleinere, effektivere Modelle und intelligentere Hardware zu identifizieren, um den Energieverbrauch zu minimieren. Die Verbesserung der KI bei gleichzeitiger Senkung des Energieverbrauchs bietet noch mehr Möglichkeiten, die Technologie in unser tägliches Leben zu integrieren. Die Wahrscheinlichkeit, dass der Einsatz von KI der Welt helfen kann, ihre größten Umweltprobleme zu lösen, macht das Ziel, den Energieverbrauch zu minimieren, noch wichtiger
.
Lesen Sie den Bericht
Weitere Informationen
Blog lesen