¿Qué es una unidad de procesamiento neuronal (NPU)?

Sistema de neuronas con conexiones brillantes sobre fondo negro

¿Qué es una unidad de procesamiento neuronal (NPU)?

Una unidad de procesamiento neuronal (NPU) es un microprocesador informático especializado diseñado para imitar la función de procesamiento del cerebro humano. Están optimizados para redes neuronales de inteligencia artificial (IA), deep learning y tareas y aplicaciones de machine learning.

A diferencia de las unidades centrales de procesamiento (CPU) de uso general o las unidades de procesamiento de gráficos (GPU), las NPU están diseñadas para acelerar las tareas y cargas de trabajo de IA, como el cálculo de capas de redes neuronales compuestas por matemáticas escalares, vectoriales y tensoriales.

También conocidas como chip de IA o acelerador de IA, las NPU se utilizan normalmente en arquitecturas informáticas heterogéneas que combinan varios procesadores (por ejemplo, CPU y GPU). Los centros de datos a gran escala pueden utilizar NPU independientes conectadas directamente a la placa base de un sistema; sin embargo, la mayoría de las aplicaciones de consumo, como smartphones, dispositivos móviles y ordenadores portátiles, combinan la NPU con otros coprocesadores en un único microchip semiconductor conocido como sistema en chip (SoC).

Al integrar una NPU dedicada, los fabricantes pueden ofrecer aplicaciones de IA generativa en el dispositivo capaces de procesar aplicaciones de IA, cargas de trabajo de IA y algoritmos de machine learning en tiempo real con un consumo de energía relativamente bajo y un alto rendimiento.     

Las últimas novedades sobre tecnología, respaldadas por conocimientos de expertos

Manténgase al día sobre las tendencias más importantes e intrigantes del sector en materia de IA, automatización, datos y mucho más con el boletín Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Se ha suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Características clave de las NPU

Las unidades de procesamiento neuronal (NPU) son adecuadas para tareas que requieren computación paralela de baja latencia, como el procesamiento de algoritmos de deep learning, el reconocimiento de voz, el procesamiento del lenguaje natural, el procesamiento de fotos y videos y la detección de objetos

Entre las características clave de las NPU se incluyen las siguientes:

  • Procesamiento paralelo: las NPU pueden descomponer problemas más grandes en componentes para la resolución de problemas multitarea. Esto permite al procesador ejecutar varias operaciones de redes neuronales simultáneamente. 
  • Aritmética de baja precisión: las NPU suelen admitir operaciones de 8 bits (o inferiores) para reducir la complejidad computacional y aumentar la eficiencia energética. 
  • Memoria de gran ancho de banda: muchas NPU disponen de memoria de gran ancho de banda en el chip para realizar con eficacia las tareas de procesamiento de IA que requieren grandes conjuntos de datos.
  • Aceleración de hardware: los avances en el diseño de NPU han llevado a la incorporación de técnicas de aceleración de hardware, como arquitecturas de matriz sistólica o procesamiento de tensores mejorado.  

Cómo funcionan las NPU

Basadas en las redes neuronales del cerebro, las unidades de procesamiento neuronal (NPU) funcionan simulando el comportamiento de las neuronas humanas y las sinapsis en la capa del circuito. Esto permite el procesamiento de conjuntos de instrucciones de deep learning en los que una instrucción completa el procesamiento de un conjunto de neuronas virtuales.

A diferencia de los procesadores tradicionales, las NPU no están diseñadas para cálculos precisos. En cambio, las NPU están diseñadas específicamente para funciones de resolución de problemas y pueden mejorar con el tiempo, aprendiendo de diferentes tipos de datos y entradas. Al aprovechar el machine learning, los sistemas de IA que incorporan NPU pueden proporcionar soluciones personalizadas con mayor rapidez, sin necesidad de más programación manual.

Como característica destacada, las NPU ofrecen un procesamiento paralelo superior y son capaces de acelerar las operaciones de IA a través de núcleos simplificados de alta capacidad que están libres de realizar múltiples tipos de tareas. Una NPU incluye módulos específicos para multiplicación y suma, funciones de activación, operaciones de datos 2D y descompresión. El módulo especializado de multiplicación y suma se utiliza para realizar operaciones relevantes para el procesamiento de aplicaciones de redes neuronales, como el cálculo de la multiplicación y suma de matrices, la convolución, el producto escalar y otras funciones. 

Mientras que los procesadores tradicionales requieren miles de instrucciones para completar este tipo de procesamiento de neuronas, una NPU podría completar una operación similar con solo una. Una NPU también integrará el almacenamiento y el cálculo a través de pesos sinápticos, una variable computacional fluida asignada a los nodos de red que indica la probabilidad de un resultado "correcto" o "deseado" que puede ajustarse o "aprender" con el tiempo, lo que conduce a una mayor eficiencia operativa.

Aunque el desarrollo de NPU sigue evolucionando, las pruebas han demostrado que el rendimiento de algunas NPU es más de 100 veces mejor que el de una GPU comparable, con el mismo consumo de energía. 

Smart Talks with IBM

Cómo la infraestructura impulsa la era de la IA

Descubra cómo las capacidades del hardware posibilitan las operaciones matemáticas matriciales necesarias para ejecutar modelos de lenguaje de gran tamaño y conozca algunos ejemplos creativos de aplicación de la IA, desde su banco hasta su cafetería local.

Principales ventajas de las NPU

Las unidades de procesamiento neuronal (NPU) no están diseñadas ni se espera que sustituyan a las CPU y GPU tradicionales. Sin embargo, la arquitectura de una NPU mejora el diseño de ambos procesadores para proporcionar un paralelismo y un machine learning inigualables y más eficientes. Capaces de mejorar las operaciones generales (pero más adecuadas para ciertos tipos de tareas generales), cuando se combinan con CPU y GPU, las NPU ofrecen varias ventajas valiosas sobre los sistemas tradicionales. 

Entre las principales ventajas se incluyen las siguientes:

  • Procesamiento paralelo: como se ha mencionado, las NPU pueden descomponer problemas más grandes en componentes para la resolución de problemas multitarea. La clave es que, aunque las GPU también destacan en el procesamiento paralelo, la estructura única de una NPU puede superar a una GPU equivalente con un consumo de energía reducido y una huella física más pequeña. 
  • Eficiencia mejorada: mientras que las GPU se utilizan a menudo para tareas IA y computación de alto rendimiento, las NPU pueden realizar un procesamiento paralelo similar con una eficiencia energética mucho mejor. A medida que la IA y otros tipos de computación de alto rendimiento se vuelven cada vez más comunes y demandan más energía, las NPU ofrecen una solución valiosa para reducir el consumo de energía crítico. 
  • Procesamiento de datos multimedia en tiempo real: las NPU están diseñadas para procesar y responder mejor a una gama más amplia de entradas de datos, incluidas imágenes, vídeo y voz. El aumento de aplicaciones como la robótica, los dispositivos de Internet de las cosas (IoT) y los wearables con NPU puede proporcionar feedback en tiempo real, reducir la fricción operativa y proporcionar feedback crítico y soluciones cuando el tiempo de respuesta es lo más importante. 

NPU vs. GPU vs. CPU

En el mundo de la informática clásica, la unidad central de procesamiento (CPU) se considera el "cerebro" del ordenador. La CPU procesa la mayoría de las tareas informáticas tradicionales y es responsable de una amplia gama de aplicaciones potenciales. Aunque hay muchos tipos diferentes, generalmente todas las CPU realizan operaciones en orden lineal, respondiendo a las solicitudes en el orden en que llegan. 

Desde la década de 1950 hasta la de 1990, las CPU soportaron la peor parte de prácticamente todo el procesamiento informático, ejecutando instrucciones para ejecutar programas, controlar sistemas y gestionar la entrada/salida (E/S).

Las exigentes aplicaciones empujaban regularmente generación tras generación de diseños de CPU a sus límites de hardware, causando a menudo una ralentización significativa o incluso el fallo del sistema. Pero con la llegada de los juegos de ordenador personal y el diseño asistido por ordenador (CAD) en la década de 1980, el sector necesitaba una solución más rápida y eficiente para renderizar gráficos por ordenador. 

La unidad de procesamiento gráfico (GPU) se creó inicialmente para descargar tareas exigentes de procesamiento de imágenes de la CPU principal. Mientras que las GPU tienden a utilizar menos núcleos para realizar operaciones lineales, las GPU cuentan con cientos o miles de núcleos con la característica de realizar procesamiento paralelo, un proceso en el que las tareas grandes se dividen en problemas más pequeños que pueden resolverse simultáneamente mediante varios procesadores y/o núcleos. 

Desarrolladas inicialmente para manejar las necesidades de procesamiento de video e imágenes, las capacidades de procesamiento paralelo de las GPU han hecho que el hardware sea especialmente adecuado para otras aplicaciones informáticas exigentes, como las tareas relacionadas con blockchain y la IA. Aunque las GPU no son el único tipo de procesador capaz de realizar procesamiento paralelo o computación paralela, son muy adecuadas para el paralelismo. Sin embargo, las GPU no están exentas de limitaciones y, por lo general, requieren un consumo de energía extremadamente costoso para ejecutar operaciones más exigentes. Con las GPU, el aumento del rendimiento conlleva un mayor coste energético. 

Las NPU y otros aceleradores de IA ofrecen alternativas más eficientes. Al incorporar y mejorar el paralelismo avanzado de las GPU, las NPU diseñadas específicamente para operaciones de IA proporcionan un alto rendimiento con un menor consumo de energía (y la ventaja añadida de una huella más pequeña).

Comparación de procesadores

  • Unidades centrales de procesamiento: el “cerebro” del ordenador. Las CPU suelen asignar alrededor del 70 % de sus transistores internos para crear memoria caché y forman parte de la unidad de control de un ordenador. Contienen relativamente pocos núcleos, utilizan arquitecturas de computación en serie para la resolución lineal de problemas y están diseñados para operaciones precisas de control lógico. 
  • Unidades de procesamiento gráfico: desarrolladas por primera vez para gestionar el procesamiento de imágenes y videos, las GPU contienen muchos más núcleos que las CPU y usan la mayoría de sus transistores para crear múltiples unidades computacionales, cada una con baja complejidad computacional, lo que permite un procesamiento paralelo avanzado. Adecuadas para cargas de trabajo que requieren proceso de datos a gran escala, las GPU han encontrado una gran utilidad adicional en aplicaciones de big data, centros de servidores backend y blockchain.
  • Unidades de procesamiento neuronal: basándose en el paralelismo de las GPU, las NPU utilizan una arquitectura informática diseñada para simular las neuronas del cerebro humano para proporcionar un alto rendimiento altamente eficiente. Las NPU utilizan ponderaciones sinápticas para integrar tanto el almacenamiento como las funciones de cálculo, proporcionando en ocasiones soluciones menos precisas a una baja latencia. Mientras que las CPU están diseñadas para una computación lineal precisa, las NPU están diseñadas para el machine learning, lo que se traduce en una mejora de la multitarea, el procesamiento paralelo y la capacidad de ajustar y personalizar las operaciones a lo largo del tiempo sin necesidad de otra programación. 

Casos de uso de NPU

Como tecnología emergente, muchos de los principales fabricantes de ordenadores y hardware, incluidos Microsoft, Intel, Nvidia, Qualcomm y Samsung, ofrecen unidades de procesamiento neuronal (NPU) independientes o variaciones integradas, como Apple Neural Engine.

La incorporación de NPU en la electrónica de consumo ofrece una amplia gama de beneficios, como un mejor reconocimiento de imágenes y la optimización de cámaras habilitadas para IA para desenfocar mejor el fondo en las videollamadas. Algunas aplicaciones adicionales para las NPU incluyen las siguientes.

Inteligencia artificial y modelos de lenguaje de gran tamaño

Como un tipo de acelerador de IA, las NPU están diseñadas específicamente para mejorar el rendimiento de los sistemas de IA y ML, como las redes neuronales. Como complemento de las GPU, el paralelismo mejorado de las NPU ofrece mejoras drásticas para modelos de lenguaje de gran tamaño que requieren procesamiento adaptativo de baja latencia para interpretar señales de multimedia, realizar reconocimiento de voz y producir lenguaje natural y arte utilizado en herramientas como chatbots de IA y aplicaciones de imagen y vídeo de IA generativa .  

Dispositivos del Internet de las cosas (IoT)

Con excepcionales capacidades de procesamiento paralelo y autoaprendizaje, las NPU son muy adecuadas para dispositivos de IoT en red, como wearables, asistentes de voz y electrodomésticos inteligentes. 

Centros de datos

La IA y el machine learning han sido una gran ayuda para los centros de datos que buscan optimizar los recursos energéticos. Las NPU de alto rendimiento y eficiencia energética ofrecen un enorme valor para los centros de datos, ya que ofrecen una mejor gestión de los recursos para el cloud computing

Vehículos autónomos

Los vehículos autónomos, como los drones o los coches y camiones autodirigidos, obtienen un gran beneficio de las capacidades de procesamiento en tiempo real de las NPU, lo que permite una corrección de rumbo más rápida y mejor basada en la entrada de sensores multimedia. Con un procesamiento paralelo inigualable, las NPU pueden ayudar a los vehículos autónomos a interpretar y procesar entradas que se desarrollan rápidamente, como señales de tráfico, patrones de tráfico e incluso obstáculos inesperados.

Edge computing e IA edge

Si bien el cloud computing ofrece soluciones avanzadas de datos y recursos externos para IoT, los dispositivos inteligentes y otros dispositivos de computación personal, edge computing e IA de edge buscan acercar físicamente los datos y recursos informáticos críticos a los usuarios. Esto reduce la latencia, mitiga el consumo de energía y refuerza la privacidad. Al requerir menos energía y ofrecer una huella física más pequeña, las NPU se están convirtiendo en un componente valioso en el edge computing y la IA en el dispositivo. 

Robótica

Adeptas a manejar tareas que requieren machine learning y visión artificial, las NPU ofrecen un apoyo crítico al desarrollo del sector de la robótica. La robótica con IA, desde asistentes domésticos hasta herramientas quirúrgicas automatizadas, depende de las NPU para desarrollar la capacidad de detectar, aprender y reaccionar a sus entornos. 

Soluciones relacionadas
Análisis de IA y datos 

Utilice marcos y herramientas de código abierto para aplicar la IA y el machine learning a sus datos empresariales más valiosos en mainframes IBM® zSystems.

Explore IBM Z
Soluciones de infraestructura de IA

IBM ofrece soluciones de infraestructura de IA para acelerar el impacto en su empresa con una estrategia de diseño híbrida.

Explore las soluciones de infraestructura de IA
Consultoría y servicios de IA

Desbloquee el valor de los datos empresariales con IBM Consulting y cree una organización impulsada por conocimientos que ofrezca ventajas empresariales.

Explore los servicios de IA
Dé el siguiente paso

Potencie sus cargas de trabajo de IA con una infraestructura optimizada para el rendimiento, la fiabilidad y la integración de la nube, construida para las demandas reales de las empresas.

Explore las soluciones de infraestructura de IA Más información