Las unidades de procesamiento neuronal (NPU) y las unidades de procesamiento gráfico (GPU) complementan la unidad central de procesamiento (CPU) principal de un sistema, y las diferencias fundamentales entre las dos se reducen a la arquitectura del chip y las capacidades de procesamiento.
Las GPU contienen miles de núcleos para realizar las tareas computacionales rápidas y precisas necesarias para la renderización de gráficos. Las NPU priorizan el flujo de datos y la jerarquía de memoria para procesar mejor las cargas de trabajo de IA en tiempo real.
Ambos tipos de microprocesadores destacan en los tipos de procesamiento paralelo utilizados en la IA, pero las NPU están diseñadas específicamente para tareas machine learning (ML) e inteligencia artificial.
Las unidades de procesamiento neuronal (NPU) están viviendo su momento, pero ¿por qué esta tecnología de casi una década de antigüedad está acaparando de repente la atención? La respuesta tiene que ver con los recientes avances en IA (inteligencia artificial) generativa que reavivan el interés público por las aplicaciones de IA y, por extensión, por los chips aceleradores de IA como las NPU y las GPU.
Boletín del sector
Manténgase al día sobre las tendencias más importantes e intrigantes del sector en materia de IA, automatización, datos y mucho más con el boletín Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
La arquitectura de la NPU difiere significativamente de la de la CPU o la GPU. Diseñadas para ejecutar instrucciones de manera secuencial, las CPU cuentan con una característica de menos núcleos de procesamiento que las GPU, que cuentan con muchos más núcleos y están diseñadas para operaciones exigentes que requieren altos niveles de procesamiento paralelo.
Mientras que las CPU luchan con las tareas de procesamiento paralelo y las GPU sobresalen a costa de un alto consumo de energía, la arquitectura NPU prospera imitando la forma en que el cerebro humano procesa los datos. Más que simplemente agregar núcleos adicionales, las NPU logran un alto paralelismo con menos consumo de energía a través de una serie de características y técnicas únicas:
Al comparar NPU y GPU, puede ser útil evaluar el rendimiento en las características clave.
La incorporación de NPU en sistemas integrados ofrece una serie de ventajas destacadas sobre los procesadores tradicionales en términos de velocidad, eficiencia y comodidad. Entre los beneficios se incluyen los siguientes:
Como coprocesadores, las NPU se han utilizado durante varios años, normalmente integradas con GPU para proporcionar soporte para tareas repetitivas específicas. Las NPU siguen siendo valiosas en la tecnología de consumo (como la IA Copilot de Microsoft Windows) y en varios dispositivos del Internet de las cosas (IoT) (como los altavoces inteligentes que utilizan NPU para procesar el reconocimiento de voz).
Sin embargo, los recientes desarrollos en la tecnología de IA han puesto de relieve este tipo de procesador, ya que los modelos de IA más avanzados han incorporado herramientas de IA de consumo a la conversación popular. Diseñado específicamente para tareas exigentes de IA, como el procesamiento del lenguaje natural, a medida que crece el interés por la IA de consumo, también lo ha hecho el interés por las NPU.
Los principales casos de uso de las NPU incluyen los siguientes:
Anteriores a las NPU, las GPU han sido durante mucho tiempo las preferidas para tareas informáticas que requieren un procesamiento paralelo de alto rendimiento. Diseñadas originalmente para gestionar gráficos complejos para videojuegos y software de imagen/vídeo, las GPU siguen utilizándose en juegos de PC y videoconsolas, así como en realidad virtual y realidad aumentada, computación de alto rendimiento (HPC), renderizado 3D, centros de datos y otras aplicaciones .
He aquí un vistazo más de cerca a algunas de las aplicaciones más importantes y modernas de la tecnología GPU:
Las NPU se utilizan mejor dentro de sistemas integrados que optimizan las operaciones para asignar tipos específicos de recursos a tipos específicos de procesadores. Diseñadas para una computación lineal y precisa, las CPU se asignan mejor a procesos de uso general, como la gestión de sistemas y recursos, mientras que las GPU están especializadas para cargas de trabajo intensas que se benefician de la computación paralela.
A medida que se generalizan las aplicaciones de inteligencia artificial, es mejor utilizar NPU aún más especializadas como complemento de CPU y GPU para gestionar tareas específicas de IA y ML con un procesamiento paralelo de baja latencia y gran eficiencia energética.
Utilice marcos y herramientas de código abierto para aplicar la IA y el machine learning a sus datos empresariales más valiosos en mainframes IBM® zSystems.
IBM ofrece soluciones de infraestructura de IA para acelerar el impacto en su empresa con una estrategia de diseño híbrida.
Desbloquee el valor de los datos empresariales con IBM Consulting y cree una organización impulsada por conocimientos que ofrezca ventajas empresariales.