La inteligencia artificial (IA) ya está cambiando la forma en que vivimos y trabajamos, y tiene el potencial de revolucionar las industrias y el mundo en general. Se espera que produzca trillones en valor (enlace externo a ibm.com), haciendo de todo, desde mejorar las predicciones de fenómenos meteorológicos catastróficos hasta acelerar el descubrimiento y la entrega de medicamentos que salvan vidas.
Las personas lo están empleando para que actúen como asistentes virtuales y copilotos. Las compañías y los empleados lo están desplegando para lograr eficiencias en varias áreas clave, como atención al cliente, las finanzas y otras áreas.
En mayo, un informe de McKinsey (enlace fuera de ibm.com) reveló que la cantidad de organizaciones que emplean IA generativa (gen IA) casi se duplicó hasta el 65% en tan solo los últimos 10 meses. Un estudio del IBM Institute for Business Value (IBV) reveló que el 77% de los encuestados sentía que necesitaba adoptar la gen IA rápidamente para mantener al día con los clientes.
El rápido crecimiento en la adopción de IA también ha dado lugar a aumentos dramáticos en el uso de energía. Se necesita energía tanto para construir y entrenar modelos de IA, y luego para potenciar las matemáticas complejas que un modelo completa cada vez que se le pide información o para generar contenido.
La Agencia Internacional de la Energía (IEA) ha sugerido (enlace externo a ibm.com) que la integración de la IA en las herramientas existentes, como los motores de búsqueda en Internet, podría multiplicar por diez la demanda de electricidad. Para 2030, la IEA proyecta que la cuota de electricidad global que alimenta los centros de datos se duplicará.
La IA no es la primera Tecnología que plantea desafíos en materia de consumo energético. La computación en la nube generó preocupaciones similares a principios de la década de 2000, pero afortunadamente se evitaron gracias a innovación en eficiencia (enlace externo a ibm.com). Sin embargo, a medida que Continuar la adopción de la IA y las compañías buscan electricidad estable y asequible en mercados energéticos competitivos, el tema es una prioridad para muchos ejecutivos.
Sin embargo, a lo largo de este auge de la IA, muchas empresas siguen persiguiendo ambiciosos objetivos de sustentabilidad. El 45 % de las empresas S&P (enlace externo a ibm.com) han asumido compromisos de cero neto, y Gartner ha compartido que el 42 % de los ejecutivos (enlace externo a ibm.com) consideran que sus esfuerzos de sostenibilidad son un diferenciador clave.
Como resultado, muchas compañías ahora enfrentan una doble tarea: dar cuenta del mayor uso de energía impulsado por IA en sus objetivos de sustentabilidad, al tiempo que apoyan los esfuerzos de toda la industria para hacer que la IA sea más amigable con la energía.
Nadie espera que la adopción de IA se ralentice porque demasiadas empresas y ejecutivos la ven como una parte indispensable de su futuro. La casación de estas 2 ambiciones —aprovechar los beneficios de IA mientras se progresan en promesas netas cero— requiere un enfoque inteligente.
Afortunadamente, numerosos expertos de la industria están trabajando en una variedad de soluciones. Estas soluciones incluyen:
Se demostró que el hardware de limitación de Power disminuye el consumo de energía hasta en un 15%, mientras que solo aumenta el tiempo que lleva devolver un resultado en un apenas perceptible 3%.
El uso de energía de la IA también se puede reducir mediante el uso de hardware eficiente en carbono (enlace externo a ibm.com), que “combina un modelo con la combinación de hardware más eficiente en carbono”, según el MIT.
Los chips nuevos y mejorados son otra solución para los problemas de energía. IBM publicó recientemente los detalles de la arquitectura de su próximo procesador IBM Telum II y IBM Spyre Accelerator, que están diseñados para reducir el consumo de energía basado en IA y la footprint del centro de datos cuando se lancen en 2025.
En general, los modelos de mayor tamaño -como los grandes modelos lingüísticos generalistas (LLM) empleados por ChatGPT y Google Gemini- requierenmás energía (link resides outside ibm.com) que los más pequeños. Estos modelos generalistas pueden ser útiles para las necesidades más diversas de los consumidores, pero para las compañías con casos de uso específicos , IBM y otras compañías recomiendan modelos más pequeños, más eficientes, más asequibles y que consuman menos energía.
Los métodos existentes de entrenamiento de modelos requieren una energía significativa porque los desarrolladores de IA suelen emplear varios modelos anteriores (enlace externo a ibm.com) como punto de partida para capacitar nuevos modelos. La ejecución de todos estos modelos aumenta la potencia requerida.
Sin embargo, los investigadores están tratando de predecir mejor qué modelos están superando y teniendo un rendimiento inferior a las expectativas, deteniendo los modelos de bajo rendimiento temprano para ahorrar energía. Todo esto es parte del floreciente movimiento de “diseñar para la sustentabilidad” que define los parámetros de carga de trabajo para usar mejor la energía
de manera eficiente.Todas las compañías deben buscar construir o emplear centros de datos que estén cerca de áreas (el enlace reside fuera de ibm.com) donde la energía renovable es abundante. Abastecer de centros de datos verdes, que emplean energía renovable y sostenible, es una excelente manera de reducir el impacto ambiental.
Las compañías que operan en el espacio de la IA no deben permitir que la competencia excesiva se interponga en el camino para compartir consejos y herramientas (enlace externo a ibm.com) que pueden ayudar a la sociedad a cosechar los beneficios de los modelos de IA con menos demanda de energía.
IBM ha colaborado con la Universidad de Columbia (enlace externo a ibm.com) para producir soluciones significativas a la crisis energética, incluido el modelado de cómo se comporta la IA en diferentes hardware, desarrollando chips de menor consumo, lo que elimina la hinchazón del software y optimiza los sistemas de IA.
Además de estos diversos enfoques, IA en sí misma puede ayudar a resolver problemas en torno a sus necesidades energéticas.
Un estudio reciente de IBM reveló que el 74 % de las empresas encuestadas de la industria de la energía y los servicios públicos están adoptando la IA para hacer frente a los retos relacionados con los datos. Esto podría ayudarles a aumentar la eficiencia, reduciendo el impacto en el medio ambiente. Desde el mantenimiento de la red hasta la previsión de la carga (enlace externo a ibm.com), la IA tiene el potencial de tener un enorme impacto en la industria energética, suministrando así energía de forma más eficiente a todas las demás industrias.
IBM ha asumido un papel de liderazgo en la transición a la energía limpia, creando el Modelo de Madurez de Electrificación Limpia (CEMM) en coordinación con APQC para ayudar a las empresas energéticas a realizar evaluaciones de madurez para comparar sus resultados y acelerar sus transiciones energéticas.
El mismo estudio mostró que, para fines de 2024, el 63 % de las compañías encuestadas planean aplicar la IA generativa en iniciativas de TI sustentables. Sin embargo, solo el 23 % está considerando actualmente las evaluaciones de sustentabilidad durante las etapas de diseño y planeación de proyectos de TI en gran medida. Esto debe cambiar.
Es bueno que ya haya un debate estable sobre el uso de energía y la IA y, con suerte, más avances para minimizar el uso de energía sigan a los que ya estamos logrando.
IBM está especialmente comprometida a ayudar a identificar modelos más pequeños y efectivos y hardware más inteligente para minimizar el uso de energía. Mejorar la IA y disminuir el uso de energía crea aún más oportunidades para integrar la tecnología en nuestra vida diaria. La probabilidad de que el uso de la IA pueda ayudar al mundo a resolver sus mayores desafíos ambientales hace que el objetivo de minimizar el uso de energía sea aún más importante.
Lea el informe.
Explorar los insights
Descargue el informe
Leer el blog