Las unidades de procesamiento neuronal (NPU) y las unidades de procesamiento de gráficos (GPU) complementan la unidad central de procesamiento (CPU) principal de un sistema, y las diferencias fundamentales entre las dos se reducen a la arquitectura del chip y las capacidades de procesamiento.
Las GPU contienen miles de núcleos para lograr las tareas computacionales rápidas y precisas necesarias para la representación de gráficos. Las NPU priorizan el flujo de datos y la jerarquía de memoria para procesar mejor las cargas de trabajo de IA en tiempo real.
Ambos tipos de microprocesadores se destacan en los tipos de procesamiento paralelo utilizados en la IA, pero las NPU están diseñadas específicamente para tareas de machine learning (ML) e IA.
Las unidades de procesamiento neuronal (NPU) están teniendo un momento, pero ¿por qué esta tecnología de casi una década de repente está acaparando la atención? La respuesta tiene que ver con los recientes avances en IA generativa (inteligencia artificial) que reavivan el interés público en las aplicaciones de IA y, por extensión, en los chips aceleradores de IA, como las NPU y las GPU.
Boletín de la industria
Manténgase al día sobre las tendencias más importantes e intrigantes de la industria sobre IA, automatización, datos y más con el boletín Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
La arquitectura de la NPU difiere significativamente de la de la CPU o la GPU. Diseñadas para ejecutar instrucciones secuencialmente, las CPU cuentan con menos núcleos de procesamiento que las GPU, que cuentan con muchos más núcleos y están diseñadas para operaciones exigentes que requieren altos niveles de procesamiento paralelo.
Mientras que las CPU tienen dificultades con las tareas de procesamiento paralelo y las GPU se destacan a costa de un alto consumo de energía, la arquitectura NPU prospera al imitar la forma en que el cerebro humano procesa los datos. Más que simplemente agregar núcleos adicionales, las NPU logran un alto paralelismo con menos consumo de energía a través de una serie de características y técnicas únicas:
Al comparar NPU y GPU, puede ser útil evaluar el rendimiento en todas las características clave.
La incorporación de NPU en sistemas integrados ofrece una serie de ventajas destacadas sobre los procesadores tradicionales en términos de velocidad, eficiencia y comodidad. Los beneficios incluyen lo siguiente:
Como coprocesador, las NPU se han utilizado durante varios años, normalmente integradas con GPU para proporcionar soporte para tareas repetitivas específicas. Las NPU Continuar siendo valiosas en tecnología a nivel de consumidor (como Microsoft Windows’ IA Copilot) y varios dispositivos de Internet de las cosas (IoT) (como altavoces inteligentes que utilizan NPU para procesar el reconocimiento de voz).
Sin embargo, los desarrollos recientes en la tecnología de IA han puesto de relieve este tipo de procesador, ya que los modelos de IA más avanzados han incorporado herramientas de IA de nivel de consumidor a la conversación popular. Diseñado específicamente para tareas exigentes de IA, como el procesamiento de lenguaje natural, a medida que crece el interés en la IA de nivel de consumidor, también crece el interés en las NPU.
Los principales casos de uso de las NPU incluyen los siguientes:
Anteriores a las NPU, las GPU se han visto favorecidas durante mucho tiempo para tareas informáticas que requieren un procesamiento paralelo de alto rendimiento. Originalmente diseñadas para manejar gráficos complejos para videojuegos y software de imagen/video, las GPU continúan utilizándose en juegos de PC y consolas, así como en realidad virtual y aumentada, computación de alto rendimiento (HPC), renderizado 3D, centros de datos y otras aplicaciones. .
He aquí un vistazo más de cerca a algunas de las aplicaciones más importantes y modernas de la tecnología de GPU:
Las NPU se utilizan mejor dentro de sistemas integrados que optimizan las operaciones para asignar tipos específicos de recursos a tipos específicos de procesadores. Diseñadas para una computación lineal precisa, las CPU se asignan mejor a procesos de propósito general, como la gestión de sistemas y recursos, mientras que las GPU están especializadas para cargas de trabajo intensas que se benefician del beneficio de la computación paralela.
A medida que las aplicaciones de inteligencia artificial se vuelven más frecuentes, las NPU aún más especializadas se despliegan mejor como complemento de las CPU y GPU para manejar tareas específicas de IA y machine learning (ML) con baja latencia y procesamiento paralelo de alta eficiencia energética.
Utilice marcos y herramientas de código abierto para aplicar IA y machine learning a sus datos empresariales más valiosos en mainframes IBM zSystems.
IBM proporciona soluciones de infraestructura de IA para acelerar el impacto en toda su empresa con una estrategia híbrida por diseño.
Desbloquee el valor de los datos empresariales con IBM Consulting y cree una organización impulsada por insights que ofrezca ventajas empresariales.