Una unidad de procesamiento neuronal (NPU) es un microprocesador informático especializado diseñado para imitar la función de procesamiento del cerebro humano. Están optimizados para tareas y aplicaciones de inteligencia artificial (IA) neuronal, aprendizaje profundo y machine learning.
A diferencia de las unidades centrales de procesamiento (CPU) de uso general o las unidades de procesamiento de gráficos (GPU), las NPU están diseñadas para acelerar las tareas y cargas de trabajo de IA, como el cálculo de capas de redes neuronales compuestas por matemáticas escalares, vectoriales y tensoriales.
También conocidas como chip de IA o acelerador de IA, las NPU se utilizan normalmente dentro de arquitecturas informáticas heterogéneas que combinan múltiples procesadores (por ejemplo, CPU y GPU). Los centros de datos a gran escala pueden utilizar NPU independientes conectadas directamente a la placa base de un sistema; sin embargo, la mayoría de las aplicaciones de consumo, como teléfonos inteligentes, dispositivos móviles y computadoras portátiles, combinan la NPU con otros coprocesadores en un único microchip semiconductor conocido como sistema en chip (SoC).
Al integrar una NPU dedicada, los fabricantes pueden ofrecer aplicaciones de IA generativa en el dispositivo capaces de procesar aplicaciones de IA, cargas de trabajo de IA y algoritmos de machine learning en tiempo real con un consumo de energía relativamente bajo y un alto rendimiento.
Boletín de la industria
Manténgase al día sobre las tendencias más importantes e intrigantes de la industria sobre IA, automatización, datos y más con el boletín Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
Las unidades de procesamiento neuronal (NPU) son adecuadas para tareas que requieren computación paralela de baja latencia, como el procesamiento de algoritmos de aprendizaje profundo, el reconocimiento de voz, el procesamiento de lenguaje natural, el procesamiento de fotos y videos y la detección de objetos.
Las características clave de las NPU incluyen las siguientes:
Basadas en las redes neuronales del cerebro, las unidades de procesamiento neuronal (NPU) funcionan simulando el comportamiento de las neuronas humanas y las sinapsis en la capa del circuito. Esto permite el procesamiento de conjuntos de instrucciones de aprendizaje profundo en los que una instrucción completa el procesamiento de un conjunto de neuronas virtuales.
A diferencia de los procesadores tradicionales, las NPU no están diseñadas para cálculos precisos. En cambio, las NPU están diseñadas específicamente para funciones de resolución de problemas y pueden mejorar con el tiempo, aprendiendo de diferentes tipos de datos y entradas. Aprovechando el machine learning, los sistemas de IA que incorporan NPU pueden proporcionar soluciones personalizadas más rápido, sin necesidad de más programación manual.
Como característica destacada, las NPU ofrecen un procesamiento paralelo superior y pueden acelerar las operaciones de IA a través de núcleos simplificados de alta capacidad que están libres de realizar múltiples tipos de tareas. Una NPU incluye módulos específicos para multiplicación y suma, funciones de activación, operaciones de datos 2D y descompresión. El módulo especializado de multiplicación y suma se utiliza para realizar operaciones relevantes para el procesamiento de aplicaciones de redes neuronales, como el cálculo de la multiplicación y suma de matrices, la convolución, el producto punto y otras funciones.
Si bien los procesadores tradicionales requieren miles de instrucciones para completar este tipo de procesamiento de neuronas, una NPU podría completar una operación similar con solo una. Una NPU también integrará el almacenamiento y el cálculo a través de pesos sinápticos, una variable computacional fluida asignada a los nodos de red que indica la probabilidad de un resultado "correcto" o "deseado" que puede ajustarse o "aprender" con el tiempo, lo que lleva a una mayor eficiencia operativa.
Si bien el desarrollo de NPU continúa evolucionando, las pruebas han demostrado que el rendimiento de algunas NPU es más de 100 veces mejor que una GPU comparable, con el mismo consumo de energía.
Las unidades de procesamiento neuronal (NPU) no están diseñadas ni se espera que reemplacen a las CPU y GPU tradicionales. Sin embargo, la arquitectura de una NPU mejora el diseño de ambos procesadores para proporcionar un paralelismo inigualable y más eficiente y el machine learning. Capaces de mejorar las operaciones generales (pero más adecuadas para ciertos tipos de tareas generales), cuando se combinan con CPU y GPU, las NPU ofrecen varias ventajas valiosas sobre los sistemas tradicionales.
Las principales ventajas incluyen las siguientes:
En el mundo de la informática clásica, la unidad central de procesamiento (CPU) se considera el "cerebro" de la computadora. La CPU procesa la mayoría de las tareas informáticas tradicionales y es responsable de una amplia gama de aplicaciones potenciales. Si bien hay muchos tipos diferentes, generalmente todas las CPU realizan operaciones en orden lineal, respondiendo a las solicitudes en el orden en que llegan.
Desde la década de 1950 hasta la de 1990, las CPU soportaron la peor parte de prácticamente todo el procesamiento informático, ejecutando instrucciones para ejecutar programas, controlar sistemas y gestionar entradas/salidas (E/S).
Las aplicaciones exigentes llevaron regularmente generación tras generación de diseños de CPU a sus límites de hardware, lo que a menudo provocó una ralentización significativa o incluso fallas del sistema. Pero con la llegada de los juegos de computadora personal y el diseño asistido por computadora (CAD) en la década de 1980, la industria requirió una solución más rápida y eficiente para renderizar gráficos por computadora.
La unidad de procesamiento de gráficos (GPU) se creó inicialmente para descargar tareas exigentes de procesamiento de imágenes de la CPU principal. Si bien las GPU tienden a usar menos núcleos para realizar operaciones lineales, las GPU cuentan con cientos o miles de núcleos con la característica de realizar procesamiento paralelo, un proceso en el que las tareas grandes se dividen en problemas más pequeños que pueden resolverse simultáneamente mediante múltiples procesadores y/o núcleos.
Inicialmente desarrollado para manejar las necesidades de procesamiento de video e imágenes, las capacidades de procesamiento paralelo de las GPU han hecho que el hardware sea especialmente adecuado para otras aplicaciones informáticas exigentes, como las tareas relacionadas con blockchain y la IA. Si bien las GPU no son el único tipo de procesador capaz de realizar procesamiento paralelo o computación paralela, son muy adecuadas para el paralelismo. Sin embargo, las GPU no están exentas de limitaciones y, por lo general, requieren un consumo de energía extremadamente costoso para ejecutar operaciones más exigentes. Con las GPU, un mayor rendimiento conlleva un mayor costo de energía.
Las NPU y otros aceleradores de IA ofrecen alternativas más eficientes. Al incorporar y mejorar el paralelismo avanzado de las GPU, las NPU diseñadas específicamente para operaciones de IA proporcionan un alto rendimiento con un menor consumo de energía (y la ventaja adicional de una footprint más pequeña).
Como tecnología emergente, muchos fabricantes líderes de computadoras y hardware, incluidos Microsoft, Intel, Nvidia, Qualcomm y Samsung, ofrecen unidades de procesamiento neuronal (NPU) independientes o variaciones integradas, como Apple Neural Engine.
La incorporación de NPU en la electrónica de consumo ofrece una amplia gama de beneficios, como un mejor reconocimiento de imágenes y optimización para cámaras habilitadas para IA para desenfocar mejor el fondo en las videollamadas. Algunas aplicaciones adicionales para las NPU incluyen las siguientes.
Como un tipo de acelerador de IA, las NPU están diseñadas específicamente para mejorar el rendimiento de los sistemas de IA y machine learning (ML), como las redes neuronales. Complementando a las GPU, el paralelismo mejorado de las NPU ofrece mejoras dramáticas para modelos de lenguaje grandes que requieren procesamiento adaptativo de baja latencia para interpretar señales multimedia, realizar reconocimiento de voz y producir el lenguaje natural y el arte utilizado en herramientas como chatbots de IA y aplicaciones de imagen y video de IA generativa. .
Con capacidades excepcionales de procesamiento paralelo y autoaprendizaje, las NPU son muy adecuadas para dispositivos IoT en red, como wearables, asistentes de voz y electrodomésticos inteligentes.
La IA y el machine learning han sido una gran ayuda para los centros de datos que buscan optimizar los recursos. Las NPU de alto rendimiento y eficiencia energética ofrecen un enorme valor para los centros de datos, ya que ofrecen una mejor gestión de recursos para la computación en la nube.
Los vehículos autónomos como drones o coches y camiones autónomos se benefician enormemente de las capacidades de procesamiento en tiempo real de las NPU, lo que permite una corrección de rumbo más rápida y mejor basada en la entrada de sensores multimedia. Con un procesamiento paralelo inigualable, las NPU pueden ayudar a los vehículos autónomos a interpretar y procesar entradas que se desarrollan rápidamente, como señales de tráfico, patrones de tráfico e incluso obstáculos inesperados.
Si bien la computación en la nube ofrece soluciones avanzadas de datos y recursos externos para IoT, dispositivos inteligentes y otros dispositivos informáticos personales, la computación perimetral y la IA perimetral buscan acercar físicamente los datos críticos y los recursos informáticos a los usuarios. Esto reduce la latencia, mitiga el consumo de energía y refuerza la privacidad. Al requerir menos energía y ofrecer una huella física más pequeña, las NPU se están convirtiendo en un componente valioso en la computación edge y la IA en el dispositivo.
Expertas en el manejo de tareas que requieren machine learning y visión artificial, las NPU ofrecen un apoyo crítico para el desarrollo de la industria de la robótica. La robótica habilitada por IA, desde asistentes domésticos hasta herramientas quirúrgicas automatizadas, depende de las NPU para desarrollar la capacidad de detectar, aprender y reaccionar ante sus entornos.
Utilice marcos y herramientas de código abierto para aplicar IA y machine learning a sus datos empresariales más valiosos en mainframes IBM zSystems.
IBM proporciona soluciones de infraestructura de IA para acelerar el impacto en toda su empresa con una estrategia híbrida por diseño.
Desbloquee el valor de los datos empresariales con IBM Consulting y cree una organización impulsada por insights que ofrezca ventajas empresariales.