Quando o desempenho da infraestrutura de servidores de IA vira um gargalo

By | 3 minute read | 01/12/2017

Obter novos insights para possibilitar o crescimento dos negócios é um grande incentivo para adicionar inteligência artificial (IA) e deep learning às capacidades de TI de uma organização. As organizações que não adotam essas novas tecnologias cognitivas para obter vantagens competitivas arriscam ficar para trás dos competidores. E muitos dão o primeiro passo experimentar softwares de IA em sua infraestrutura já existente.

Quase sempre, em algum momento essa infraestrutura acaba se tornando um gargalo – isso é, o desempenho da infraestrutura ­­vai caindo assim como mesmo um maratonista bem treinado pode ficar sem energia antes de concluir uma prova. De acordo com uma pesquisa recente da IDC, 77,1% dos entrevistados disseram enfrentar uma ou mais limitações com suas infraestruturas de IA on-premises. E 90,3% dos usuários executando tecnologias cognitivas na nuvem também enfrentam essas mesmas limitações.

Os desafios do desempenho para IA

IA e deep learning demandam muito da infraestrutura de servidores. Eles exigem processamento paralelo poderoso, e por isso nós acreditamos que investigar o uso de novas soluções nas etapas de experimentação inicial do desenvolvimento da IA é algo crítico para os times de infraestrutura.

A mesma pesquisa do IDC mostra que as empresas tomam caminhos diversos ao longo da fase de experimentação. Por exemplo, alguns decidiram desenvolver suas soluções em uma máquina virtual (VM) para depois migrar para um servidor dedicado. Outros iniciaram uma prova de conceito (PoC) em uma partição de um sistema scale-up e depois optaram por mover para um cluster de servidor.

Nós acreditamos que escolher o hardware de servidor certo pode ser um fator decisivo. De acordo com o White paper da IDC citado acima, as respostas das empresas executando aplicações de IA indicam que um cluster de servidores single e dual-socket com alto desempenho por núcleo e parâmetros de E/S combinados com aceleradores como GPUs são uma boa configuração de infraestrutura para aplicações cognitivas.  Escalar esses nós de computação acelerada não é tão simples quanto apenas escalar CPUs e, por isso, as organizações precisam procurar um fornecedor de servidores que tenha conhecimento em escalabilidade para aplicações de IA.

O caminho certo para o desenvolvimento

Além da pesquisa citada anteriormente, o white paper da IDC também inclui recomendações de analistas para abordagens de desenvolvimento de IA. Para iniciativas de pequeno e médio porte de IA, a IDC recomenda soluções desenvolvidas internamente, para que o time de infraestrutura adquira novas e úteis habilidades. Em contrapartida, o white paper destaca que, devido à complexidade exigida, o desenvolvimento de iniciativas de IA mais abrangentes pode se beneficiar de suporte externo.

Em resumo: se você está desenvolvendo recursos de IA ou estendendo capacidades de IA já existentes, encontrar um gargalo no desempenho da infraestrutura de TI é apenas uma questão de tempo. Nesse caso, é preciso abordar o problema de maneira rigorosa e controlada, como os analistas da IDC recomendam. E fazer isso não apenas de forma consciente e em posse de todos os detalhes e informações necessárias, mas também trabalhando colaborativamente com um fornecedor de servidores que ofereça orientações assertivas desde os estágios iniciais até a implementação.

Na IBM, estamos prontos para ajudar as organizações a atender suas demandas de desempenho para iniciativas cognitivas. Nós oferecemos soluções de hardware e software abrangentes, incluindo os servidores IBM Power Systems com GPUs da NVIDIA e nosso software PowerAI. Nós também oferecemos suporte e consultoria.

Recomendações

Se você acha que está na hora da sua organização andar em direção a soluções de IA e deep learning, faça o download e leia o white paper da IDC, patrocinado pela IBM, que identifica mais de uma dúzia de possibilidades e caminhos para chegar lá.