O que é computação acelerada?

Mulher usando um tablet digital em um data center

O que é computação acelerada?

A computação acelerada refere-se ao uso de hardware e software especialmente projetados para acelerar tarefas de computação. 

A computação acelerada depende de uma ampla gama de hardware e software (também conhecidos como aceleradores), incluindo unidades de processamento gráfico (GPUs), circuitos integrados de aplicações específicas (ASICs) e matrizes de porta programável no campo (FPGAs). 

Soluções de computação acelerada têm alta demanda em muitos setores porque podem realizar cálculos de forma mais rápida e eficiente do que as unidades de processamento central (CPUs) tradicionais. Ao contrário de CPUs, aceleradores dependem de computação paralela, um método de resolução de problemas computacionais em que as tarefas são divididas em problemas menores e resolvidas simultaneamente, em vez de em série. 

Devido às velocidades de processamento de dados, a computação acelerada tornou-se crítica para o avanço de muitas tecnologias de ponta e aplicações, incluindo IA, IA generativa, aprendizado de máquina (ML) e computação de alto desempenho (HPC). Atualmente, é um componente essencial das estratégias de muitas das empresas de tecnologia mais bem-sucedidas do mundo, incluindo Google, Amazon Web Services (AWS) e Microsoft.

Aceleradores versus CPUs

Processamento central, unidades ou CPUs consistem em vários circuitos eletrônicos que executam o sistema operacional (SO) de um computador e aplicativos. Durante muitos anos, a CPU serviu como o cérebro de um computador, transformando a entrada de dados em saída de informações. No entanto, à medida que as aplicações se tornavam mais avançadas, elas precisavam processar dados de forma mais rápida e eficiente do que as CPUs poderiam gerenciar. Entre nos aceleradores e tecnologias de computação acelerada com seus recursos de processamento paralelo, baixa latência e alta taxa de transferência. Desde a década de 1980, quando ganharam destaque pela primeira vez, muitos dos maiores avanços tecnológicos na ciência da computação dependeram de aceleradores.

Projeto 3D de bolas rolando em uma pista

As últimas notícias e insights sobre IA 


Descubra insights selecionados por especialistas e notícias sobre IA, nuvem e outros assuntos no boletim informativo semanal Think. 

Por que a computação acelerada é importante?

Desde os novos videogames e experiências imersivas de realidade virtual (VR) até o ChatGPT, o treinamento de modelos de IA e a análise de big data, os aceleradores são uma parte essencial de nosso mundo hiperconectado e em rápida evolução. Muitas empresas modernas dependem de aceleradores para alimentar suas aplicações e arquiteturas de infraestrutura mais valiosas, incluindo computação em nuvem, data centers, edge computing e grandes modelos de linguagem (LLMs). Por exemplo, líderes empresariais e desenvolvedores que desejam explorar a IA generativa estão investindo em aceleradores para ajudar a otimizar seus data centers e processar mais informações mais rapidamente1.

Os aceleradores são usados em uma ampla variedade de aplicações de negócios para acelerar o processamento de dados, especialmente à medida que a cobertura 5G se expande, aumentando as oportunidades da Internet das coisas (IoT) e da edge computing. As aplicações de IoT dependem de aceleradores para processar dados de dispositivos inteligentes, como geladeiras, sensores de fluxo de tráfego e outros. A edge computing pode proporcionar insights mais profundos, tempos de resposta mais rápidos e melhores experiências dos clientes, mas apenas com as velocidades de processamento que os aceleradores oferecem.  

Quando se trata de IA, muitas de suas aplicações mais avançadas, como processamento de linguagem natural (NLP), computer vision e reconhecimento de fala, dependem do poder da computação acelerada para funcionar. Por exemplo, redes neurais, que sustentam muitas aplicações de ponta precisam de aceleradores de IA para classificar e agrupar dados em alta velocidade.

Por fim, à medida que mais empresas buscam maneiras de transformar digitalmente e acelerar a inovação, as soluções de computação acelerada oferecem um custo total de propriedade relativamente baixo. A capacidade dos aceleradores de processar grandes quantidades de dados com rapidez e precisão significa que eles podem ser usados em diversas aplicações com potencial para criar valor comercial, incluindo chatbots IA, análise de dados, computação em nuvem e muito mais.

Computação de alto desempenho

Processadores escaláveis Intel® Xeon® de 4ª geração na IBM Cloud

Saiba mais sobre o compromisso da Intel e da IBM com a última geração de microarquitetura para a setor de nuvem.

Como funciona a computação acelerada?

A computação acelerada usa uma combinação de hardware, software e tecnologias de rede para ajudar as empresas modernas a impulsionar suas aplicações mais avançadas. Os componentes de hardware críticos para os aceleradores incluem GPUs, ASICs e FPGAs. Software e interfaces de programação de aplicativos (APIs) são igualmente importantes, com o CUDA e o OpenCL desempenhando funções importantes. 

Por fim, soluções de rede, como PCI express (PCIe) e link NV, ajudam as unidades de processamento a se comunicarem com a memória e os dispositivos de armazenamento onde os dados são mantidos. Veja a seguir como os aceleradores de hardware, aceleradores de software e soluções de rede trabalham juntos para tornar possível a computação acelerada.

Aceleradores de hardware

Aceleradores de hardware modernos podem processar dados significativamente mais rápido do que CPUs tradicionais devido aos seus recursos de processamento paralelo. Sem eles, muitas das aplicações mais importantes da computação acelerada não seriam possíveis.

GPUs

GPUs, ou unidades de processamento gráfico, são aceleradores de hardware projetados para acelerar o processamento de imagens e gráficos de computador em vários dispositivos, incluindo placas de vídeo, placas de sistema, telefones móveis e computadores pessoais (PCs). Os aceleradores de GPU reduzem significativamente o tempo que um computador precisa para executar vários programas. A computação acelerada por GPU é usada em uma ampla gama de aplicações de computação acelerada, incluindo IA e blockchain.

ASICs

ASICs, ou circuitos integrados específicos de aplicações, são aceleradores de hardware construídos com um propósito ou função específica em mente, como deep learning, no caso do acelerador ASICs WSE-3, considerado um dos aceleradores de IA mais rápidos do mundo2. Ao contrário de alguns outros aceleradores de hardware, os ASICs não podem ser reprogramados. No entanto, como são construídos com uma finalidade única, eles normalmente superam os aceleradores criados para tarefas de computação de uso mais geral. Outro exemplo de um acelerador ASICs é a Tensor Processing Unit (TPU) do Google, que foi desenvolvida para ML de rede neural no software TensorFlow do próprio Google.

FPGAs

Matrizes de porta programável no campo (FPGAs) são aceleradores de IA altamente personalizáveis que dependem de conhecimento especializado para serem reprogramados para uma finalidade específica. Ao contrário de outros aceleradores de hardware, as FPGAs têm um design exclusivo que atende a uma função específica, muitas vezes relacionada ao processamento de dados em tempo real. As FPGAs são reprogramáveis em um nível de hardware, permitindo um nível muito mais alto de personalização. Elas são frequentemente usados no setor aeroespacial, em aplicações de IoT e em soluções de rede sem fio. 

APIs e software

As APIs e o software desempenham papéis críticos na função dos aceleradores, fazendo a interface entre o hardware e as redes necessárias para executar aplicações de computação acelerada. 

APIs

As APIs, ou interfaces de programação de aplicativos, são conjuntos de regras que permitem que as aplicações se comuniquem e troquem dados. As APIs são críticas para a computação acelerada, ajudando a integrar dados, serviços e funcionalidades entre aplicações. Elas simplificam e aceleram a aplicação e desenvolvimento de software por permitirem que os desenvolvedores integrem dados, serviços e recursos de outras aplicações e os permitirem serem compartilhados por toda a Organização. As APIs ajudam a otimizar o fluxo de dados entre aceleradores de hardware e software e dão aos desenvolvedores acesso a bibliotecas de software críticas para o desenvolvimento de aplicativos e software.

CUDA

O Compute Unified Device Architecture (CUDA), desenvolvido pela NVIDIA em 2007, é um software que oferece aos desenvolvedores acesso direto às habilidades de computação paralela das GPUs da NVIDIA. O CUDA capacita os codificadores a usar a tecnologia GPU para uma gama muito maior de funções do que era possível anteriormente. Desde então, com base no que o CUDA tornou possível, os aceleradores de hardware de GPU ganharam ainda mais recursos — talvez o mais significativo é o traçado de raio, a geração de imagens de computador rastreando a direção da luz de uma câmera e núcleos tensores que permitem o DL.

OpenCL

O OpenCL é uma plataforma de código aberto projetada para computação paralela e compatível com vários tipos de aceleradores de hardware, incluindo GPUs e FPGAs. Sua alta compatibilidade o torna uma ferramenta ideal para desenvolvedores que precisam usar diferentes tipos de componentes em suas cargas de trabalho de computação acelerada. Exemplos de casos de uso do OpenCl incluem jogos, modelagem 3D e produção multimídia.

Tecnologia de rede

As tecnologias de rede são críticas para a computação acelerada, permitindo uma comunicação rápida e eficaz entre as diversas unidades de processamento e dispositivos de memória e armazenamento onde os dados estão sendo armazenados. Aqui estão alguns dos diferentes tipos de rede dos quais a computação acelerada depende.

Ethernet

Ethernet é um tipo de tecnologia amplamente utilizado para fornecer transferência rápida e flexível de dados entre servidores em um data center (ou apenas entre computadores que estão no mesmo espaço físico). Embora seja difundido e acessível, não é tão rápido quanto alguns dos outros tipos de rede, como NVLink ou InfiniBand.

PCI Express (PCIe)

O PCIe é um barramento de expansão de computador de alta velocidade que conecta dois dispositivos a uma fonte de memória externa. Os aceleradores usam PCIe para conectar GPUs ou outros tipos de aceleradores de hardware a um sistema de computação central.

NVLink

O NVLink é uma tecnologia de interconexão proprietária da NVIDIA e pode fornecer uma largura de banda muito maior do que o PCIe. Ele foi desenvolvido para permitir o compartilhamento de dados altamente eficiente entre GPUs e outros dispositivos.

InfiniBand

O InfiniBand é uma especificação de comunicação que define a arquitetura de malha comutada em servidores interconectados, armazenamento ou outros dispositivos em um data center. Desenvolvido pela InfiniBand Trade Association, a tecnologia se distingue por seu alto desempenho e baixa latência, tornando-a ideal para cargas de trabalho de alto desempenho.

Computer Express Link (CXL)

O CXL é um padrão de interconexão aberta que ajuda a obter baixa latência e aumentar a largura de banda entre CPUs e aceleradores, combinando várias interfaces em uma única conexão PCIe. 

Casos de uso de computação acelerada

Com a disseminação da tecnologia de IA e a expansão das redes 5G, que permitem velocidades de transferência rápida de dados, o número de casos de uso de computação acelerada cresce a cada dia. Estes são alguns dos mais comuns. 

Inteligência artificial (IA)

A inteligência artificial (IA) e suas diversas aplicações comerciais não seriam possíveis sem aceleradores como GPUs e ASICs. Esses dispositivos de computação acelerada permitem que os computadores realizem cálculos altamente complexos de forma mais rápida e eficiente do que as CPUs tradicionais. Aceleradores como o supercomputador de IA nativo da nuvem da IBM,Vela alimentam muitas das principais aplicações de IA que dependem de suas habilidades para treinar modelos de IA com conjuntos de dados cada vez maiores.

Aprendizado de máquina (ML) e deep learning (DL)

Tanto o aprendizado de máquina (ML) quanto o deep learning (DL), um campo da IA preocupado com o uso de dados e algoritmos para imitar a maneira como os humanos aprendem e decidem, dependem dos recursos de processamento de dados dos aceleradores. A computação acelerada capacita o treinamento de modelos de deep learning que aprendem a fazer inferências a partir de dados de maneiras semelhantes ao cérebro humano. 

Blockchain

A blockchain, o livro-razão popular usado para registrar transações e rastrear ativos em redes de negócios, depende muito da computação acelerada. Uma etapa vital chamada Proof of Work (PoW), onde uma transação é validada e adicionada a uma blockchain, depende de aceleradores. Nas criptomoedas, por exemplo, PoW significa que qualquer pessoa com a máquina apropriada pode minerar uma criptomoeda, como o Bitcoin.

Internet das coisas (IoT)

Os aceleradores lidam com os grandes conjuntos de dados gerados pelas aplicações da Internet das coisas (IoT) com muito mais eficiência do que uma CPU com recursos de processamento em série. A IoT depende de dispositivos conectados à internet que coletam dados constantemente para processamento. Aceleradores de hardware como GPUs ajudam a processar dados rapidamente para aplicações de IoT, como carros autônomos e sistemas que monitoram o tráfego e o clima.

Edge computing

A edge computing, um framework de computação distribuída que aproxima as aplicações empresariais das fontes de dados, depende muito de aceleradores para funcionar. A expansão da conectividade 5G fez com que os conjuntos de dados crescessem exponencialmente. A computação acelerada, com seus recursos de processamento paralelo, ajuda as empresas a aproveitar todas as possibilidades da edge computing, como menor tempo de insight, melhores tempos de resposta e melhor largura de banda.

Soluções relacionadas
Pacotes IBM Spectrum LSF 

O IBM Spectrum LSF Suites é uma plataforma de gerenciamento de carga de trabalho e agendamento de tarefas para computação distribuída de alto desempenho (HPC).

Explore os pacotes Spectrum LSF
Soluções de servidor e armazenamento de computação de alto desempenho (HPC) | IBM

As soluções de HPC em nuvem híbrida da IBM ajudam a enfrentar desafios complexos e intensivos em computação, acelerando a obtenção de insights.

Conheça as soluções de HPC
Soluções de infraestrutura em nuvem

Encontre a solução ideal de infraestrutura em nuvem para as necessidades do seu negócio e expanda os recursos conforme a demanda.

Soluções em nuvem
Dê o próximo passo

Potencialize suas cargas de trabalho mais exigentes com uso intensivo de IA e computação com as soluções de HPC da IBM. Aproveite a flexibilidade da nuvem híbrida e a infraestrutura de ponta para acelerar sua jornada para a inovação.

Explore as soluções de HPC
Notas de rodapé

1. GPUs Force CIOs to Rethink the Datacenter, Information Week, 23 de abril de 2024.

2. Gigantic AI CPU has almost one million cores, Tech Radar, March 16 de março de 2024.