Uma unidade de processamento neural (NPU) é um microprocessador de computador especializado projetado para imitar a função de processamento do cérebro humano. Elas são otimizadas para redes neurais de inteligência artificial (IA), tarefas e aplicações de deep learning e aprendizado de máquina.
Diferentemente das unidades de processamento central (CPUs) de uso geral ou das unidades de processamento gráfico (GPUs), as NPUs são adaptadas para acelerar tarefas e cargas de trabalho de IA, como o cálculo de redes neurais compostas por matemática escalar, vetorial e de tensores.
Também conhecidos como chip de IA ou acelerador de IA, as NPUs são normalmente usadas em arquiteturas de computação heterogênea que combinam vários processadores (por exemplo, CPUs e GPUs). Data centers de grande escala podem usar NPUs autônomas conectadas diretamente à placa-mãe de um sistema; no entanto, a maioria das aplicações para consumidores, como smartphones, dispositivos móveis e notebooks, combina o NPU com outros coprocessadores em um único microchip semicondutor conhecido como system-on-chip (SoC).
Ao integrar uma NPU dedicada, os fabricantes podem oferecer aplicativos de IA generativa no dispositivo capazes de processar aplicações de IA, cargas de trabalho de IA e algoritmos de aprendizado de máquina em tempo real com consumo de energia relativamente baixo e alto rendimento.
Boletim informativo do setor
Mantenha-se atualizado sobre as tendências mais importantes (e intrigantes) do setor em IA, automação, dados e muito mais com o boletim informativo Think. Consulte a Declaração de privacidade da IBM.
Sua assinatura será entregue em inglês. Você pode encontrar um link para cancelar a assinatura em todos os boletins informativos. Você pode gerenciar suas inscrições ou cancelar a inscrição aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.
As unidades de processamento neural (NPUs) são adequadas para tarefas que exigem computação paralela de baixa latência, como o processamento de algoritmos de deep learning, reconhecimento de fala, processamento de linguagem natural, processamento de fotos e vídeos e detecção de objetos.
As características principais das NPUs incluem as seguintes:
Com base nas redes neurais do cérebro, as unidades de processamento neural (NPUs) funcionam simulando o comportamento de neurônios e sinapses humanas na camada de circuito. Isso permite o processamento de conjuntos de instruções de deep learning nos quais uma instrução conclui o processamento de um conjunto de neurônios virtuais.
Ao contrário dos processadores tradicionais, as NPUs não são criados para cálculos precisos. Em vez disso, as NPUs são criadas especificamente para funções de resolução de problemas e podem melhorar com o tempo, aprendendo com diferentes tipos de dados e entradas. Aproveitando o aprendizado de máquina, os sistemas de IA que incorporam NPUs podem fornecer soluções personalizadas com mais rapidez, sem a necessidade de mais programação manual.
Como funcionalidade de destaque, as NPUs oferecem processamento paralelo superior e são capazes de acelerar as operações de IA por meio de núcleos simplificados de alta capacidade que são liberados de realizar vários tipos de tarefas. Uma NPU inclui módulos específicos para multiplicação e adição, funções de ativação, operações de dados 2D e descompressão. O módulo especializado de multiplicação e adição é usado para realizar operações relevantes ao processamento de aplicações de redes neurais, como cálculo de multiplicação e adição de matrizes, convolução, produto escalar e outras funções.
Embora os processadores tradicionais exijam milhares de instruções para concluir esse tipo de processamento de neurônio, uma NPU pode conseguir concluir uma operação semelhante com apenas uma. Uma NPU também integra armazenamento e computação por meio de pesos sinápticos, uma variável computacional fluida atribuída a nós que indica a probabilidade de resultados que pode se ajustar ou "aprender" com o tempo, levando a uma melhor eficiência operacional.
Embora o desenvolvimento das NPUs continue a evoluir, os testes mostraram que o desempenho de algumas NPUs é mais de 100 vezes melhor do que uma GPU comparável, com o mesmo consumo de energia.
As unidades de processamento neural (NPUs) não foram projetadas para substituir CPUs e GPUs tradicionais (nem se espera que o façam). No entanto, a arquitetura de uma NPU melhora o design de ambos os processadores para fornecer paralelismo e aprendizado de máquina incomparáveis e mais eficientes. Capazes de melhorar operações gerais (mas mais adequadas para determinados tipos de tarefas gerais), quando combinadas com CPUs e GPUs, as NPUs oferecem várias vantagens valiosas em relação aos sistemas tradicionais.
As principais vantagens incluem:
No mundo da ciência da computação clássica, a unidade central de processamento (CPU) é considerada o “cérebro” do computador. A CPU processa a maioria das tarefas de computação tradicionais e é responsável por uma ampla gama de aplicações em potencial. Embora existam muitos tipos diferentes, geralmente todas as CPUs executam operações em ordem linear, respondendo às solicitações na ordem em que chegam.
Entre as décadas de 1950 e 1990, as CPUs suportaram o peso de praticamente todo o processamento computacional, executando instruções para executar programas, sistemas de controle e gerenciar a entrada/saída (E/S).
Aplicações exigentes regularmente levaram geração após geração de designs de CPU ao limite de seu hardware, muitas vezes causando lentidão significativa ou até mesmo falhas no sistema. Porém, com o advento dos jogos de computador pessoal e do design auxiliado por computador (CAD) na década de 1980, o setor precisava de uma solução mais rápida e eficiente para a renderização de gráficos de computador.
A unidade de processamento gráfico (GPU) foi criada inicialmente para descarregar tarefas exigentes de processamento de imagem da CPU principal. Enquanto as GPUs tendem a usar menos núcleos para realizar operações lineares, as GPUs têm a funcionalidade de centenas a milhares de núcleos com a capacidade de realizar processamento paralelo, um processo no qual tarefas grandes são divididas em problemas menores que podem ser resolvidos simultaneamente por vários processadores e/ou núcleos.
Inicialmente desenvolvido para lidar com as necessidades de processamento de vídeo e imagem, os recursos de processamento paralelo das GPUs tornaram o hardware especialmente adequado para outras aplicações de computação exigentes, como tarefas relacionadas a blockchain e IA. Embora as GPUs não sejam o único tipo de processador capaz de realizar processamento paralelo ou computação paralela, elas são adequadas para paralelismo. No entanto, as GPUs não estão isentas de limitações e normalmente exigem um consumo de energia extremamente caro para executar operações mais exigentes. Com as GPUs, o aumento do desempenho acarreta um aumento no custo de energia.
NPUs e outros aceleradores de IA oferecem alternativas mais eficientes. Incorporando e melhorando o paralelismo avançado das GPUs, as NPUs projetadas especificamente para operações de IA fornecem alto desempenho com menor consumo de energia (e o bônus adicional de uma pegada de carbono menor).
Como uma tecnologia emergente, muitos dos principais fabricantes de computadores e hardware, incluindo Microsoft, Intel, Nvidia, Qualcomm e Samsung, oferecem unidades de processamento neural (NPUs) independentes ou variações integradas, como o Apple Neural Engine.
A incorporação de NPUs em eletrônicos de consumo oferece uma ampla gama de benefícios, como melhor reconhecimento de imagens e otimização de câmeras com IA para desfocar melhor o fundo em chamadas de vídeo. Algumas aplicações adicionais para NPUs incluem as seguintes:
Como um tipo de acelerador de IA, as NPUs são projetadas para melhorar o desempenho dos sistemas de IA e ML, como as redes neurais. Complementando as GPUs, o paralelismo aprimorado das NPUs oferece melhorias significativas para grandes modelos de linguagem, que exigem processamento adaptativo de baixa latência para interpretar sinais multimídia, realizar reconhecimento de fala e produzir a linguagem natural e a arte usadas em ferramentas como chatbot IA e aplicações de IA generativa.
Com recursos excepcionais de processamento paralelo e autoaprendizagem, as NPUs são adequadas para dispositivos de IoT em rede, como vestíveis, assistentes de voz e dispositivos inteligentes.
A IA e o aprendizado de máquina têm sido um grande benefício para os data centers que buscam otimizar os recursos. As NPUs de alto desempenho e eficientes em termos de energia oferecem um enorme valor para os data centers, oferecendo um melhor gerenciamento de Recursos para computação em nuvem.
Veículos autônomos como drones ou carros e caminhões autônomos se beneficiam muito dos recursos de processamento em tempo real das NPUs, permitindo uma correção de curso mais rápida e melhor com base na entrada do sensor multimídia. Com processamento paralelo incomparável, as NPUs podem ajudar veículos autônomos a interpretar e processar entradas em rápido desenvolvimento, como sinais de trânsito, padrões de tráfego e até obstáculos inesperados.
Enquanto a computação em nuvem oferece soluções avançadas de dados e recursos externos para IoT, dispositivos inteligentes e outros dispositivos de computação pessoal, a edge computing e a edge AI buscam fisicamente aproximar fisicamente os usuários de dados críticos e recursos de computação. Isso reduz a latência, mitiga o consumo de energia e reforça a privacidade. Exigindo menos energia e oferecendo uma pegada de carbono menor, as NPUs estão se tornando um componente valioso na edge computing e na IA no dispositivo.
Adeptas a lidar com tarefas que exigem aprendizado de máquina e visão computacional, as NPUs oferecem suporte crítico ao desenvolvimento do setor de robótica. A robótica habilitadas por IA, desde assistentes domésticos até ferramentas cirúrgicas automatizadas, depende de NPUs para desenvolver a capacidade de detectar, aprender e reagir a seus ambientes.
Use frameworks e ferramentas de código aberto para aplicar IA e aprendizado de máquina aos dados empresariais mais valiosos em mainframes IBM zSystems.
A IBM oferece soluções de infraestrutura para IA que aceleram o impacto em toda a sua empresa com uma estratégia híbrida por design.
Libere o valor dos dados empresariais com a IBM® Consulting, construindo uma organização orientada por insights que proporciona vantagem comercial.