NPU versus GPU: qual é a diferença?

Jovem jogando videogame online em casa no PC

NPU versus GPU: qual é a diferença?

Unidades de processamento neural (NPUs) e unidades de processamento gráfico (GPUs) complementam a principal unidade de processamento central (CPU) de um sistema e as diferenças fundamentais entre as duas se resumem à arquitetura do chip e aos recursos de processamento.

As GPUs contêm milhares de núcleos para realizar as tarefas computacionais rápidas e precisas necessárias para a renderização gráfica. As NPUs priorizam o fluxo de dados e a hierarquia de memória para processar melhor as cargas de trabalho de IA em tempo real.

Ambos os tipos de microprocessadores se destacam nos tipos de processamento paralelo usados em IA, mas as NPUs são criadas especificamente para tarefas de aprendizado de máquina (ML) e inteligência artificial

As unidades de processamento neural (NPUs) estão passando por um momento crítico, mas por que essa tecnologia com quase uma década de idade está roubando os holofotes de repente? A resposta tem a ver com os recentes avanços na IA generativa (inteligência artificial), reacendendo o interesse do público em aplicações de IA e, por extensão, em chips aceleradores de IA, como NPUs e GPUs. 

As mais recentes notícias de tecnologia, corroboradas por insights de especialistas.

Mantenha-se atualizado sobre as tendências mais importantes (e intrigantes) do setor em IA, automação, dados e muito mais com o boletim informativo Think. Consulte a Declaração de privacidade da IBM.

Agradecemos sua inscrição!

Sua assinatura será entregue em inglês. Você pode encontrar um link para cancelar a assinatura em todos os boletins informativos. Você pode gerenciar suas inscrições ou cancelar a inscrição aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.

Como as NPUs imitam a mente humana

A arquitetura da NPU difere significativamente da da CPU ou da GPU. Projetadas para executar instruções sequencialmente, as CPUs possuem menos núcleos de processamento do que as GPUs, que possuem muito mais núcleos e são projetadas para operações exigentes que exigem altos níveis de processamento paralelo. 

Enquanto as CPUs enfrentam dificuldades com tarefas de processamento paralelo e as GPUs se destacam pelo alto custo com o alto consumo de energia, a arquitetura de NPUs prospera ao imitar a maneira como o cérebro humano processa dados. Mais do que simplesmente adicionar outros núcleos, as NPUs alcançam alto paralelismo com menos consumo de energia por meio de uma série de funcionalidades e técnicas exclusivas:

  • Unidades de computação especializadas: as NPUs integram hardware dedicado para operações de multiplicação e acumulação, essenciais para o treinamento e inferência de modelos de redes neurais.
  • Memória de chip de alta velocidade: para minimizar gargalos relacionados ao acesso à memória, as NPUs possuem funcionalidade de memória integrada de alta velocidade, permitindo acesso rápido a dados e pesos do modelo.
  • Arquitetura paralela: as NPUs são projetadas para executar milhares de operações paralelas, tornando-as extremamente eficientes no processamento de lotes de dados.
AI Academy

Preparando-se para a IA com a nuvem híbrida

Liderada pelos principais líderes da IBM, o currículo dessa experiência foi desenvolvido para ajudar líderes empresariais a terem o conhecimento necessário para priorizar os investimentos em IA capazes de estimular o crescimento.

Principais diferenças entre GPUs e NPUs

Ao comparar NPUs e GPUs, pode ser útil avaliar o desempenho nas características principais.

Design

  • As GPUs são projetadas para dividir tarefas exigentes de processamento de imagens em operações menores, que podem ser processadas em paralelo.   
  • As NPUs são projetadas para imitar o cérebro humano com módulos para acelerar a multiplicação e a adição e, ao mesmo tempo, melhorar a memória do chip.

Eficiência de desempenho

  • As GPUs oferecem excelentes recursos de computação paralela, mas isso vem ao custo de alto consumo de energia. 
  • As NPUs oferecem paralelismo igual (ou até melhor), especialmente quando se trata de cálculos curtos e repetitivos. Projetado para lidar com os tipos de algoritmos de IA usados em redes neurais, as NPUs são particularmente adequadas para processar conjuntos de dados em grande escala que requerem multiplicações de matrizes.

Especialização

  • As GPUs, embora mais especializadas do que as CPUs, são mais adequadas para a computação de uso geral.
  • As NPUs são processadores especializados, criados especificamente para tarefas de IA e aprendizado de máquina. Elas eliminam algumas das funcionalidades em excesso usadas pelas GPUs para otimizar a eficiência energética.

Acessibilidade

  • As GPUs, como antecessoras das NPUs, têm um benefício de um ambiente mais desenvolvido e estão amplamente disponíveis no mercado de consumo. Disponível para profissionais e amadores, a linguagem CUDA da Nvidia permite programação fácil de GPU com compilação de código aberto para vários sistemas operacionais. 
  • As NPUs são mais recentes que as GPUs e geralmente são menos acessíveis. Muitas NPUs proprietárias, como a Tensor Processing Unit (TPU) do Google ou o Snapchat da Qualcomm (usado pela Apple), podem não estar disponíveis para o mercado em geral. Os chips de NPUs produzidos por fabricantes como a Intel ou a AMD têm comparativamente menos recursos da comunidade.

Casos de uso

  • As GPUs são frequentemente usadas em jogos e animação por computador, em que as placas gráficas são responsáveis pela otimização do processamento de imagens. Elas também são eficazes em outras aplicações que exigem altos níveis de paralelismo, como em data centers, mineração de criptomoedas ou treinamento de modelos de IA.
  • As NPUs são usadas em um escopo mais focado e oferecem paralelismo excepcional, ao mesmo tempo em que exigem menos energia. Normalmente combinadas com GPUs, as NPUs descarregam as tarefas de IA mais exigentes e são mais adequadas para tarefas de aprendizado de máquina, como processamento de cargas de trabalho de IA em grandes modelos de linguagem (LLMs), reconhecimento de imagens de deep learning ou blockchain e IA

Como as NPUs podem complementar as GPUs

A incorporação de NPUs em sistemas integrados oferece uma série de vantagens relevantes em relação aos processadores tradicionais em termos de velocidade, eficiência e conveniência. Os benefícios incluem o seguinte:

  • Localização: o processamento de aplicações de IA exige recursos computacionais significativos e, por esse motivo, muitas vezes é confinado na nuvem. No entanto, depender de um servidor distante pode retardar as operações e deixar informações confidenciais vulneráveis a possíveis vazamentos de dados. As NPUs permitem o processamento localizado e em tempo real de tarefas de IA, reduzindo a latência para aplicação crítica, como reconhecimento de voz ou facial, diagnósticos médicos e sistemas de direção automatizados. 
  • Gerenciamento de recursos: as NPUs normalmente integradas podem ajudar a otimizar os recursos gerais do sistema, assumindo as tarefas repetitivas necessárias para as aplicações de IA. O descarregamento desses tipos de tarefas para um NPU libera recursos de GPU para processar grandes volumes de dados para cálculos mais gerais.
  • Eficiência: embora as GPUs sejam capazes de lidar com muitas tarefas exigentes associadas à IA, as NPUs foram criadas especificamente para essas solicitações e podem atender a benchmarks de desempenhos semelhantes ou até melhores, exigindo exponencialmente menos energia, uma funcionalidade particularmente valiosa para dispositivos alimentados por bateria com capacidade limitada . 

Casos de uso de NPUs versus GPUs

Como coprocessador, as NPUs são usadas há vários anos, normalmente integradas a GPUs para compatibilidade com tarefas repetitivas específicas. As NPUs continuam a ser valiosas em tecnologia em nível de consumidor (como o AI Copilot do Microsoft Windows) e vários dispositivos de Internet das coisas (IoT) (como alto-falantes inteligentes que usam NPUs para processar reconhecimento de fala). 

No entanto, desenvolvimentos recentes na tecnologia de IA colocaram um holofote mais brilhante sobre esse tipo de processador, à medida que modelos de IA mais avançados trouxeram ferramentas de IA de nível de consumidor para a conversa popular. Projetado especificamente para tarefas de IA exigentes, como o processamento de linguagem natural, com o crescimento do interesse em IA de nível de consumidor, o mesmo ocorre com o interesse em NPUs. 

Casos de uso de NPUs

Os principais casos de uso de NPUs incluem os seguintes:

  • Inteligência artificial e grandes modelos de linguagem: as NPUs são criadas especificamente para melhorar o desempenho de sistemas de IA e ML, como grandes modelos de linguagem (LLMs) que exigem processamento adaptativo de baixa latência para interpretar sinais multimídia, realizar reconhecimento de fala e gerar respostas naturais. As NPUs também são hábeis em tarefas de processamento de vídeo habilitadas para IA, como desfocar o fundo em chamadas de vídeo ou editar imagens automaticamente.   
  • Dispositivos de internet das coisas (IoT): discretas e energeticamente eficientes, as NPUs são coprocessadores poderosos para pequenos dispositivos inteligentes, como smartphones, dispositivos móveis e vestíveis, nos quais a energia da bateria é valiosa e a eficiência é priorizada.
  • Data centers: conhecidos por processar cargas de trabalho exigentes, os data centers se beneficiam do benefício da otimização eficiente de recursos oferecida pelas NPUs. 
  • Veículos autônomos e robótica: de carros autônomos a veículos aéreos autônomos (drones), as NPUs agregam valor aos sistemas de piloto autônomo por meio do melhor paralelismo da categoria e velocidades de processamento de sinal aprimoradas. As NPUs de baixa latência são uma excelente opção para aplicações que exigem visão computacional e ajudam os veículos autônomos a responder em tempo real a condições repentinas de tráfego e ambientes. A robótica habilitada por IA, desde assistentes domésticos até ferramentas cirúrgicas automatizadas, contam com NPUs para desenvolver a capacidade de detectar, aprender e reagir a seus ambientes. 
  • Edge computing e edge AI: edge computing e edge AI buscam trazer dados críticos e recursos de computação fisicamente para mais perto dos usuários. Isso reduz a latência, mitiga o consumo de energia e reforça a privacidade. Exigindo menos energia e oferecendo uma pegada de carbono menor, as NPUs estão se tornando um componente valioso na edge computing e na IA no dispositivo. 

Casos de uso de GPUs

Antes das NPUs, as GPUs têm sido as preferidas para tarefas de computação que exigem processamento paralelo de alto desempenho. Originalmente projetadas para lidar com gráficos complexos para videogames e software de imagem/vídeo, as GPUs Continuar a ser usadas em jogos para PC e consoles, bem como em realidade virtual e realidade aumentada, computação de alto desempenho (HPC), renderização 3D, data center e outras aplicações . 

Veja a seguir uma visão mais detalhada de algumas das aplicações mais importantes e modernas da tecnologia de GPUs:

  • Inteligência artificial (IA), aprendizado de máquina (ML) e deep learning (DL): embora não sejam especificamente projetadas para tarefas de IA, ML ou DL, as GPUs servem de base para muitas das principais aplicações de IA, como o supercomputador de IA nativo da nuvem Vela, da IBM, que exigem alta velocidade de paralelismo para processar grandes conjuntos de dados para treinamento. Por meio de processamento paralelo, as GPUs podem simular o processo de tomada de decisão do cérebro humano usado em ML e DL. 
  • Computação em nuvem: nos últimos anos, acomputação em nuvem tornou-se uma parte crucial da infraestrutura de TI em todos os principais setores. A capacidade de transferir grandes tarefas de computação para servidores poderosos armazenados externamente exige enormes recursos de processamento de dados. As GPUs permitem a infraestrutura de computação em nuvem acelerando a análise de big data e as consultas de banco de dados por meio da computação paralela. 
  • Visualização e simulação: desenvolvidas especificamente para processar gráficos, os GPUs agregam um enorme valor em todos os setores para tarefas que exigem visualizações ou simulações complexas, incluindo instruções passo a passo de produtos, desenho CAD de engenharia, imagens médicas e modelagem sísmica e geofísica. Em outros lugares, cientistas climáticos usam simulações alimentadas por GPUs para prever condições meteorológicas, enquanto físicos teóricos as usam para modelar o comportamento de partículas no nível quântico.  
  • Blockchain: as tecnologias de blockchain dependem fortemente da tecnologia de GPUs, especialmente quando se trata de validar "provas de trabalho". Em muitas aplicações de blockchain amplamente usadas, como a criptomoeda Bitcoin, os cálculos de prova de trabalho são realizados para confirmar que quaisquer atualizações feitas no livro-razão geral são precisas. Esse nível de computação é muito exigente porque afeta toda a blockchain, o que não seria possível sem as GPUs modernas.
  • Jogos e o metaverso: à medida que o setor de jogos continua a disparar, a demanda por melhores gráficos, jogos online multijogador maciço (MMO) maiores e renderização com uso intensivo de computação, como o tipo que permite jogos de realidade aumentada. Desenvolvedores de jogos e fabricantes de computação dependem de GPUs para alimentar funcionalidades de edge, como altas taxas de atualização de imagens e o avançado traçado de raios usado na renderização de ambientes hiper-realistas. 
  • Processamento de vídeo e criação de conteúdo: desde seu lançamento, as GPUs reduziram constantemente os tempos frustrantes de renderização para produtos populares de edição de vídeo, incluindo Final Cut Pro e Adobe Premiere. Hoje, as GPUs equipadas com NPUs integradas aceleram drasticamente as tarefas de criação e edição de vídeo em tudo, desde os pacotes de edição profissional usados pelos principais estúdios de Hollywood até os aplicativos de smartphone usados por YouTubers e TikTokers.

Integração de NPUs e GPUs para melhor IA 

As NPUs são mais bem usadas dentro de sistemas integrados que otimizam as operações para alocar tipos específicos de recursos a tipos específicos de processadores. Projetadas para computação precisa e linear, as CPUs são mais bem alocadas para processos de uso geral, como gerenciamento de sistemas e recursos, enquanto as GPUs são especializadas para cargas de trabalho intensas que se beneficiam do benefício da computação paralela.

À medida que as aplicações de inteligência artificial se tornam mais predominantes, ainda mais NPUs especializadas são melhor implementadas como complemento de CPUs e GPUs para lidar com tarefas específicas de IA e ML com processamento paralelo de baixa latência e altamente eficiente em termos de energia.  

Soluções relacionadas
Análise de dados e IA 

Use frameworks e ferramentas de código aberto para aplicar IA e aprendizado de máquina aos dados empresariais mais valiosos em mainframes IBM zSystems.

Explore o IBM Z
Soluções de infraestrutura de IA

A IBM oferece soluções de infraestrutura para IA que aceleram o impacto em toda a sua empresa com uma estratégia híbrida por design.

Explore nossas soluções de infraestrutura de IA
Consultoria e serviços de IA

Libere o valor dos dados empresariais com a IBM® Consulting, construindo uma organização orientada por insights que proporciona vantagem comercial.

Explore os serviços de IA
Dê o próximo passo

Impulsione suas cargas de trabalho de IA com uma infraestrutura otimizada para desempenho, confiabilidade e integração com nuvem híbrida, criada para as demandas reais das empresas.

Explore nossas soluções de infraestrutura de IA Veja mais informações