Unidades de processamento neural (NPUs) e unidades de processamento gráfico (GPUs) complementam a principal unidade de processamento central (CPU) de um sistema e as diferenças fundamentais entre as duas se resumem à arquitetura do chip e aos recursos de processamento.
As GPUs contêm milhares de núcleos para realizar as tarefas computacionais rápidas e precisas necessárias para a renderização gráfica. As NPUs priorizam o fluxo de dados e a hierarquia de memória para processar melhor as cargas de trabalho de IA em tempo real.
Ambos os tipos de microprocessadores se destacam nos tipos de processamento paralelo usados em IA, mas as NPUs são criadas especificamente para tarefas de aprendizado de máquina (ML) e inteligência artificial.
As unidades de processamento neural (NPUs) estão passando por um momento crítico, mas por que essa tecnologia com quase uma década de idade está roubando os holofotes de repente? A resposta tem a ver com os recentes avanços na IA generativa (inteligência artificial), reacendendo o interesse do público em aplicações de IA e, por extensão, em chips aceleradores de IA, como NPUs e GPUs.
Boletim informativo do setor
Mantenha-se atualizado sobre as tendências mais importantes (e intrigantes) do setor em IA, automação, dados e muito mais com o boletim informativo Think. Consulte a Declaração de privacidade da IBM.
Sua assinatura será entregue em inglês. Você pode encontrar um link para cancelar a assinatura em todos os boletins informativos. Você pode gerenciar suas inscrições ou cancelar a inscrição aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.
A arquitetura da NPU difere significativamente da da CPU ou da GPU. Projetadas para executar instruções sequencialmente, as CPUs possuem menos núcleos de processamento do que as GPUs, que possuem muito mais núcleos e são projetadas para operações exigentes que exigem altos níveis de processamento paralelo.
Enquanto as CPUs enfrentam dificuldades com tarefas de processamento paralelo e as GPUs se destacam pelo alto custo com o alto consumo de energia, a arquitetura de NPUs prospera ao imitar a maneira como o cérebro humano processa dados. Mais do que simplesmente adicionar outros núcleos, as NPUs alcançam alto paralelismo com menos consumo de energia por meio de uma série de funcionalidades e técnicas exclusivas:
Ao comparar NPUs e GPUs, pode ser útil avaliar o desempenho nas características principais.
A incorporação de NPUs em sistemas integrados oferece uma série de vantagens relevantes em relação aos processadores tradicionais em termos de velocidade, eficiência e conveniência. Os benefícios incluem o seguinte:
Como coprocessador, as NPUs são usadas há vários anos, normalmente integradas a GPUs para compatibilidade com tarefas repetitivas específicas. As NPUs continuam a ser valiosas em tecnologia em nível de consumidor (como o AI Copilot do Microsoft Windows) e vários dispositivos de Internet das coisas (IoT) (como alto-falantes inteligentes que usam NPUs para processar reconhecimento de fala).
No entanto, desenvolvimentos recentes na tecnologia de IA colocaram um holofote mais brilhante sobre esse tipo de processador, à medida que modelos de IA mais avançados trouxeram ferramentas de IA de nível de consumidor para a conversa popular. Projetado especificamente para tarefas de IA exigentes, como o processamento de linguagem natural, com o crescimento do interesse em IA de nível de consumidor, o mesmo ocorre com o interesse em NPUs.
Os principais casos de uso de NPUs incluem os seguintes:
Antes das NPUs, as GPUs têm sido as preferidas para tarefas de computação que exigem processamento paralelo de alto desempenho. Originalmente projetadas para lidar com gráficos complexos para videogames e software de imagem/vídeo, as GPUs Continuar a ser usadas em jogos para PC e consoles, bem como em realidade virtual e realidade aumentada, computação de alto desempenho (HPC), renderização 3D, data center e outras aplicações .
Veja a seguir uma visão mais detalhada de algumas das aplicações mais importantes e modernas da tecnologia de GPUs:
As NPUs são mais bem usadas dentro de sistemas integrados que otimizam as operações para alocar tipos específicos de recursos a tipos específicos de processadores. Projetadas para computação precisa e linear, as CPUs são mais bem alocadas para processos de uso geral, como gerenciamento de sistemas e recursos, enquanto as GPUs são especializadas para cargas de trabalho intensas que se beneficiam do benefício da computação paralela.
À medida que as aplicações de inteligência artificial se tornam mais predominantes, ainda mais NPUs especializadas são melhor implementadas como complemento de CPUs e GPUs para lidar com tarefas específicas de IA e ML com processamento paralelo de baixa latência e altamente eficiente em termos de energia.
Use frameworks e ferramentas de código aberto para aplicar IA e aprendizado de máquina aos dados empresariais mais valiosos em mainframes IBM zSystems.
A IBM oferece soluções de infraestrutura para IA que aceleram o impacto em toda a sua empresa com uma estratégia híbrida por design.
Libere o valor dos dados empresariais com a IBM® Consulting, construindo uma organização orientada por insights que proporciona vantagem comercial.