Una unidad de procesamiento neuronal (NPU) es un microprocesador informático especializado diseñado para imitar la función de procesamiento del cerebro humano. Están optimizados para redes neuronales de inteligencia artificial (IA), deep learning y tareas y aplicaciones de machine learning.
A diferencia de las unidades centrales de procesamiento (CPU) de uso general o las unidades de procesamiento de gráficos (GPU), las NPU están diseñadas para acelerar las tareas y cargas de trabajo de IA, como el cálculo de capas de redes neuronales compuestas por matemáticas escalares, vectoriales y tensoriales.
También conocidas como chip de IA o acelerador de IA, las NPU se utilizan normalmente en arquitecturas informáticas heterogéneas que combinan varios procesadores (por ejemplo, CPU y GPU). Los centros de datos a gran escala pueden utilizar NPU independientes conectadas directamente a la placa base de un sistema; sin embargo, la mayoría de las aplicaciones de consumo, como smartphones, dispositivos móviles y ordenadores portátiles, combinan la NPU con otros coprocesadores en un único microchip semiconductor conocido como sistema en chip (SoC).
Al integrar una NPU dedicada, los fabricantes pueden ofrecer aplicaciones de IA generativa en el dispositivo capaces de procesar aplicaciones de IA, cargas de trabajo de IA y algoritmos de machine learning en tiempo real con un consumo de energía relativamente bajo y un alto rendimiento.
Boletín del sector
Manténgase al día sobre las tendencias más importantes e intrigantes del sector en materia de IA, automatización, datos y mucho más con el boletín Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
Las unidades de procesamiento neuronal (NPU) son adecuadas para tareas que requieren computación paralela de baja latencia, como el procesamiento de algoritmos de deep learning, el reconocimiento de voz, el procesamiento del lenguaje natural, el procesamiento de fotos y videos y la detección de objetos.
Entre las características clave de las NPU se incluyen las siguientes:
Basadas en las redes neuronales del cerebro, las unidades de procesamiento neuronal (NPU) funcionan simulando el comportamiento de las neuronas humanas y las sinapsis en la capa del circuito. Esto permite el procesamiento de conjuntos de instrucciones de deep learning en los que una instrucción completa el procesamiento de un conjunto de neuronas virtuales.
A diferencia de los procesadores tradicionales, las NPU no están diseñadas para cálculos precisos. En cambio, las NPU están diseñadas específicamente para funciones de resolución de problemas y pueden mejorar con el tiempo, aprendiendo de diferentes tipos de datos y entradas. Al aprovechar el machine learning, los sistemas de IA que incorporan NPU pueden proporcionar soluciones personalizadas con mayor rapidez, sin necesidad de más programación manual.
Como característica destacada, las NPU ofrecen un procesamiento paralelo superior y son capaces de acelerar las operaciones de IA a través de núcleos simplificados de alta capacidad que están libres de realizar múltiples tipos de tareas. Una NPU incluye módulos específicos para multiplicación y suma, funciones de activación, operaciones de datos 2D y descompresión. El módulo especializado de multiplicación y suma se utiliza para realizar operaciones relevantes para el procesamiento de aplicaciones de redes neuronales, como el cálculo de la multiplicación y suma de matrices, la convolución, el producto escalar y otras funciones.
Mientras que los procesadores tradicionales requieren miles de instrucciones para completar este tipo de procesamiento de neuronas, una NPU podría completar una operación similar con solo una. Una NPU también integrará el almacenamiento y el cálculo a través de pesos sinápticos, una variable computacional fluida asignada a los nodos de red que indica la probabilidad de un resultado "correcto" o "deseado" que puede ajustarse o "aprender" con el tiempo, lo que conduce a una mayor eficiencia operativa.
Aunque el desarrollo de NPU sigue evolucionando, las pruebas han demostrado que el rendimiento de algunas NPU es más de 100 veces mejor que el de una GPU comparable, con el mismo consumo de energía.
Las unidades de procesamiento neuronal (NPU) no están diseñadas ni se espera que sustituyan a las CPU y GPU tradicionales. Sin embargo, la arquitectura de una NPU mejora el diseño de ambos procesadores para proporcionar un paralelismo y un machine learning inigualables y más eficientes. Capaces de mejorar las operaciones generales (pero más adecuadas para ciertos tipos de tareas generales), cuando se combinan con CPU y GPU, las NPU ofrecen varias ventajas valiosas sobre los sistemas tradicionales.
Entre las principales ventajas se incluyen las siguientes:
En el mundo de la informática clásica, la unidad central de procesamiento (CPU) se considera el "cerebro" del ordenador. La CPU procesa la mayoría de las tareas informáticas tradicionales y es responsable de una amplia gama de aplicaciones potenciales. Aunque hay muchos tipos diferentes, generalmente todas las CPU realizan operaciones en orden lineal, respondiendo a las solicitudes en el orden en que llegan.
Desde la década de 1950 hasta la de 1990, las CPU soportaron la peor parte de prácticamente todo el procesamiento informático, ejecutando instrucciones para ejecutar programas, controlar sistemas y gestionar la entrada/salida (E/S).
Las exigentes aplicaciones empujaban regularmente generación tras generación de diseños de CPU a sus límites de hardware, causando a menudo una ralentización significativa o incluso el fallo del sistema. Pero con la llegada de los juegos de ordenador personal y el diseño asistido por ordenador (CAD) en la década de 1980, el sector necesitaba una solución más rápida y eficiente para renderizar gráficos por ordenador.
La unidad de procesamiento gráfico (GPU) se creó inicialmente para descargar tareas exigentes de procesamiento de imágenes de la CPU principal. Mientras que las GPU tienden a utilizar menos núcleos para realizar operaciones lineales, las GPU cuentan con cientos o miles de núcleos con la característica de realizar procesamiento paralelo, un proceso en el que las tareas grandes se dividen en problemas más pequeños que pueden resolverse simultáneamente mediante varios procesadores y/o núcleos.
Desarrolladas inicialmente para manejar las necesidades de procesamiento de video e imágenes, las capacidades de procesamiento paralelo de las GPU han hecho que el hardware sea especialmente adecuado para otras aplicaciones informáticas exigentes, como las tareas relacionadas con blockchain y la IA. Aunque las GPU no son el único tipo de procesador capaz de realizar procesamiento paralelo o computación paralela, son muy adecuadas para el paralelismo. Sin embargo, las GPU no están exentas de limitaciones y, por lo general, requieren un consumo de energía extremadamente costoso para ejecutar operaciones más exigentes. Con las GPU, el aumento del rendimiento conlleva un mayor coste energético.
Las NPU y otros aceleradores de IA ofrecen alternativas más eficientes. Al incorporar y mejorar el paralelismo avanzado de las GPU, las NPU diseñadas específicamente para operaciones de IA proporcionan un alto rendimiento con un menor consumo de energía (y la ventaja añadida de una huella más pequeña).
Como tecnología emergente, muchos de los principales fabricantes de ordenadores y hardware, incluidos Microsoft, Intel, Nvidia, Qualcomm y Samsung, ofrecen unidades de procesamiento neuronal (NPU) independientes o variaciones integradas, como Apple Neural Engine.
La incorporación de NPU en la electrónica de consumo ofrece una amplia gama de beneficios, como un mejor reconocimiento de imágenes y la optimización de cámaras habilitadas para IA para desenfocar mejor el fondo en las videollamadas. Algunas aplicaciones adicionales para las NPU incluyen las siguientes.
Como un tipo de acelerador de IA, las NPU están diseñadas específicamente para mejorar el rendimiento de los sistemas de IA y ML, como las redes neuronales. Como complemento de las GPU, el paralelismo mejorado de las NPU ofrece mejoras drásticas para modelos de lenguaje de gran tamaño que requieren procesamiento adaptativo de baja latencia para interpretar señales de multimedia, realizar reconocimiento de voz y producir lenguaje natural y arte utilizado en herramientas como chatbots de IA y aplicaciones de imagen y vídeo de IA generativa .
Con excepcionales capacidades de procesamiento paralelo y autoaprendizaje, las NPU son muy adecuadas para dispositivos de IoT en red, como wearables, asistentes de voz y electrodomésticos inteligentes.
La IA y el machine learning han sido una gran ayuda para los centros de datos que buscan optimizar los recursos energéticos. Las NPU de alto rendimiento y eficiencia energética ofrecen un enorme valor para los centros de datos, ya que ofrecen una mejor gestión de los recursos para el cloud computing.
Los vehículos autónomos, como los drones o los coches y camiones autodirigidos, obtienen un gran beneficio de las capacidades de procesamiento en tiempo real de las NPU, lo que permite una corrección de rumbo más rápida y mejor basada en la entrada de sensores multimedia. Con un procesamiento paralelo inigualable, las NPU pueden ayudar a los vehículos autónomos a interpretar y procesar entradas que se desarrollan rápidamente, como señales de tráfico, patrones de tráfico e incluso obstáculos inesperados.
Si bien el cloud computing ofrece soluciones avanzadas de datos y recursos externos para IoT, los dispositivos inteligentes y otros dispositivos de computación personal, edge computing e IA de edge buscan acercar físicamente los datos y recursos informáticos críticos a los usuarios. Esto reduce la latencia, mitiga el consumo de energía y refuerza la privacidad. Al requerir menos energía y ofrecer una huella física más pequeña, las NPU se están convirtiendo en un componente valioso en el edge computing y la IA en el dispositivo.
Adeptas a manejar tareas que requieren machine learning y visión artificial, las NPU ofrecen un apoyo crítico al desarrollo del sector de la robótica. La robótica con IA, desde asistentes domésticos hasta herramientas quirúrgicas automatizadas, depende de las NPU para desarrollar la capacidad de detectar, aprender y reaccionar a sus entornos.
Utilice marcos y herramientas de código abierto para aplicar la IA y el machine learning a sus datos empresariales más valiosos en mainframes IBM® zSystems.
IBM ofrece soluciones de infraestructura de IA para acelerar el impacto en su empresa con una estrategia de diseño híbrida.
Desbloquee el valor de los datos empresariales con IBM Consulting y cree una organización impulsada por conocimientos que ofrezca ventajas empresariales.