Um data center é uma sala física, prédio ou instalação que abriga infraestrutura de TI para construir, executar e entregar aplicações e serviços. Ele também armazena e gerencia os dados associados a essas aplicações e serviços.
Os data centers começaram como instalações locais de propriedade privada e rigorosamente controladas, abrigando infraestrutura de TI tradicional para uso exclusivo de uma empresa. Recentemente evoluíram para instalações remotas ou redes de instalações de propriedade de provedores de serviços de nuvem (CSPs). Esses data centers de CSP abrigam infraestrutura de TI virtualizada para o uso compartilhado de várias empresas e clientes.
Os data centers datam da década de 1940. O Integrador Numérico Elétrico e Computador (ENIAC) das forças armadas dos EUA, concluído em 1945 na Universidade da Pensilvânia, é um dos primeiros exemplos de um data center que exigia espaço dedicado para abrigar suas máquinas maciças.
Com o passar dos anos, os computadores se tornaram mais eficientes em termos de tamanho, exigindo menos espaço físico. Na década de 1990, os microcomputadores surgiram, reduzindo drasticamente a quantidade de espaço necessária para operações de TI. Esses microcomputadores que começaram a preencher as antigas salas de computadores mainframe ficaram conhecidos como “servidores” e as salas ficaram conhecidas como “data centers”.
O advento da computação em nuvem no início dos anos 2000 revolucionou consideravelmente o cenário tradicional do data center. Os serviços de nuvem permitem que as organizações acessem recursos de computação on demand, pela internet, com preços pay-per-use, permitindo a flexibilidade para aumentar ou reduzir conforme necessário.
Em 2006, o Google lançou o primeiro data center de hiperescala em The Dalles, Oregon. Essa instalação em hiperescala ocupa atualmente um espaço de mais de 120 mil metros quadrados e emprega uma equipe de aproximadamente 200 operadores de data center.
Um estudo da McKinsey & Company prevê que o setor crescerá 10% ao ano até 2030 com gastos globais na construção de novas instalações chegando a US$ 49 bilhões.2
Há diversos tipos de instalações de data center e uma única empresa pode utilizar mais de um tipo, dependendo das cargas de trabalho e da necessidade do negócio.
Esse modelo de data center hospeda toda a infraestrutura de TI e dados locais. Muitas empresas escolhem data centers locais. Eles têm mais controle sobre a segurança da informação e podem cumprir com mais facilidade regulamentos como GDPR ( Regulamento Geral de Proteção de Dados) da União Europeia ou a HIPAA (Health Insurance Portability and Accountability Act) dos EUA. A empresa é responsável por todas as tarefas de implantação, monitoramento e gerenciamento em um data center corporativo.
Os data centers em nuvem (também conhecidos como data centers de computação em nuvem) hospedam recursos de infraestrutura de TI para uso compartilhado por vários clientes, de dezenas a milhões, por meio de uma conexão com a Internet.
Muitos dos maiores data centers em nuvem, conhecidos como data centers em hiperescala, são administrados pelos principais provedores de serviços em nuvem (CSPs), como Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud e Microsoft Azure. Essas empresas têm grandes data centers em todas as regiões do mundo. Por exemplo, a IBM opera mais de 60 IBM Cloud Data Centers em vários locais ao redor do mundo.
Os data centers de hiperescala são maiores do que os data centers tradicionais e podem cobrir milhões de metros quadrados. Eles normalmente contêm pelo menos 5 mil servidores e milhas de equipamentos de conexão e, às vezes, podem ter até 60 mil pés quadrados.
Os provedores de serviços de nuvem normalmente mantêm data centers de edge (EDCs) menores, localizados mais perto dos clientes de nuvem (e dos clientes dos clientes de nuvem). Os data centers de edge formam a base da edge computing, estrutura de computação distribuída que aproxima as aplicações dos usuários finais. Os data centers de edge são ideais para cargas de trabalho em tempo real com uso intensivo de dados, como análise de dados de big data, inteligência artificial (IA), aprendizado de máquina (ML) e entrega de conteúdo. Eles ajudam a minimizar a latência, melhorando o desempenho geral da aplicação e a experiência do cliente.
Data centers gerenciados e instalações de colocation são opções para organizações que não têm espaço, equipe nem experiência para gerenciar sua infraestrutura de TI no local. Essas opções são ideais para quem prefere não hospedar sua infraestrutura utilizando os recursos compartilhados de um data center de nuvem pública.
Em um data center gerenciado, a empresa cliente aluga servidores dedicados, armazenamento e hardware de rede do provedor, e o provedor lida com a administração, monitoramento e gerenciamento da empresa cliente.
Em uma instalação de colocation, a empresa cliente é proprietária de toda a infraestrutura e aluga um espaço dedicado para hospedá-la dentro da instalação. No modelo tradicional de colocation, a empresa cliente tem acesso exclusivo ao hardware e total responsabilidade pelo seu gerenciamento. Esse modelo é ideal para privacidade e segurança, mas geralmente não é prático, principalmente durante interrupções ou emergências. Atualmente, a maioria dos provedores de colocation oferece serviços de gerenciamento e monitoramento para os clientes que os desejarem.
As empresas geralmente escolhem data centers gerenciados e instalações de colocation para abrigar a tecnologia de backup remoto de dados e recuperação de desastres (DR) para pequenas e médias empresas (SMBs).
A maioria dos data centers modernos, inclusive os internos locais, evoluiu a partir da arquitetura de TI tradicional. Em vez de executar cada aplicação ou carga de trabalho em hardware dedicado, eles agora utilizam uma arquitetura de nuvem na qual recursos físicos, como CPUs, armazenamento e rede, são virtualizados. A virtualização possibilita que esses recursos sejam abstraídos de seus limites físicos e agrupados em capacidade que podem ser alocados em várias aplicações e cargas de trabalho em qualquer quantidade necessária.
A virtualização também possibilita a infraestrutura definida por software (SDI) - infraestrutura que pode ser provisionada, configurada, executada, mantida e "desativada" programaticamente sem intervenção humana.
Essa virtualização levou a novas arquiteturas de data center, como data centers definidos por software (SDDC), um conceito de gerenciamento de servidor que virtualiza elementos de infraestrutura, como rede, armazenamento e computação, entregando-os como um serviço. Esse recurso possibilita que as organizações otimizem a infraestrutura para cada aplicação e carga de trabalho sem fazer alterações físicas, o que pode ajudar a melhorar o desempenho e controlar custos. Os modelos de data center como serviço estão prestes a se tornar mais prevalentes, com a IDC prevendo que 65% dos compradores de tecnologia priorizarão esses modelos até 2026.3
A combinação de arquitetura de nuvem e SDI oferece muitas vantagens aos data centers e seus usuários, como:
A virtualização possibilita que empresas ou nuvens otimizem seus recursos e atendam a maioria dos usuários com a menor quantidade de hardware e com menos capacidade não utilizada ou ociosa.
A automação SDI torna o provisionamento de nova infraestrutura tão fácil quanto fazer uma solicitação por meio de um portal de autoatendimento.
A infraestrutura de TI virtualizada é muito mais fácil de escalar do que a infraestrutura de TI tradicional. Mesmo as empresas que utilizam data centers locais podem adicionar capacidade sob demanda, transferindo cargas de trabalho para a nuvem quando necessário.
Empresas e nuvens podem oferecer aos usuários uma variedade de maneiras de consumir e entregar TI, tudo a partir da mesma infraestrutura. As escolhas são feitas com base nas demandas de carga de trabalho e incluem infraestrutura como serviço (IaaS), plataforma como serviço (PaaS), software como serviço (SaaS) e outros. Os CSPs oferecem esses serviços para uso em um data center privado no local ou como soluções em nuvem em um ambiente de nuvem privada, nuvem pública, nuvem híbrida ou multinuvem.
Outras soluções de dados são data centers modulares, instalações projetadas previamente para uso como data centers que também são pré-tubuladas e equipadas com o equipamento de resfriamento necessário.
Aconteinerização e a computação serverless com um ecossistema robusto de código aberto, permitem e aceleram os ciclos de DevOps e a modernização de aplicações, além de permitir o desenvolvimento único de aplicações em qualquer lugar.
Os servidores são computadores poderosos que fornecem aplicações, serviços e dados aos dispositivos do usuário final. Os servidores de data center vêm em vários formatos:
A escolha do formato do servidor depende de muitos fatores, incluindo o espaço disponível no data center, as cargas de trabalho em execução nos servidores, a energia e o custo disponíveis.
A maioria dos servidores contém algum recurso de armazenamento local, armazenamento de conexão direta (DAS) para permitir que os dados utilizados com mais frequência (dados ativos) permaneçam próximos à CPU.
Duas outras configurações de armazenamento do data center são o armazenamento conectado à rede (NAS) e uma rede de área de armazenamento (SAN).
O NAS oferece armazenamento de dados e acesso a dados a vários servidores por meio de conexão Ethernet padrão. O dispositivo NAS geralmente é um servidor dedicado com várias mídias de armazenamento, como unidades de disco rígido (HDDs) ou unidades de estado sólido (SSDs)
Como o NAS, um SAN possibilita o armazenamento compartilhado, mas utiliza uma rede separada para os dados e envolve uma combinação mais complexa de vários servidores de armazenamento, servidores de aplicações e software de gerenciamento de armazenamento.
Um único data center pode utilizar todas as três configurações de armazenamento, como DAS, NAS e SAN e tipos de armazenamento de arquivos, armazenamento de blocos e armazenamento de objetos.
A topologia de rede do data center se refere ao layout físico e à interconexão dos dispositivos de rede de um data center, incluindo infraestrutura, conexões entre servidores e componentes e fluxo de dados.
A rede do data center consiste em vários equipamentos de rede, como switches, roteadores e fibra óptica que transmitem o tráfego entre os servidores (chamado de tráfego leste/oeste) e de ou para os servidores para os clientes (chamado tráfego norte/sul).
Conforme observado acima, um data center normalmente tem serviços de rede virtualizados. Esse recurso possibilita a criação de redes de sobreposição definidas por software, construídas sobre a infraestrutura física da rede, para acomodar controles de segurança específicos ou acordos de nível de serviço (SLAs).
Os data centers precisam de conexões de alta largura de banda para possibilitar a comunicação entre servidores e sistemas de armazenamento e entre o tráfego de rede de entrada e saída. Para data centers em hiperescala, os requisitos de largura de banda podem variar de vários gigabits por segundo (Gbps) a terabits por segundo (Tbps).
Os data centers precisam estar sempre ativos, em todos os níveis. A maioria dos servidores conta com fontes de alimentação duplas. Fontes de alimentação ininterruptas (UPS) alimentadas por bateria protegem contra picos de energia e breves quedas de energia. Geradores potentes podem entrar em ação caso ocorra uma queda de energia mais grave.
O gerenciamento de cabos é uma preocupação importante no design do data center, pois vários cabos conectam milhares de servidores. Se os cabos estiverem muito próximos uns dos outros podem causar dados cruzados, o que pode afetar negativamente as taxas de transferência de dados e a transmissão de sinais. Além disso, se muitos cabos forem empacotados juntos podem gerar calor excessivo. A construção e a expansão do data center devem considerar os códigos de construção e os padrões do setor para garantir o cabeamento eficiente e seguro.
O tempo de inatividade do data center é caro para os provedores de data center e para seus clientes. Os operadores e arquitetos de data centers se esforçam ao máximo para aumentarem a resiliência de seus sistemas. Essas medidas incluem as matrizes redundantes de discos independentes (RAIDs) para proteger contra perda ou corrupção de dados em caso de falha da mídia de armazenamento. Outras medidas são a infraestrutura de resfriamento do data center de backup que mantém os servidores funcionando em temperaturas ideais, mesmo que o sistema de resfriamento principal falhe.
Muitos grandes provedores de data centers têm data centers em regiões geograficamente distintas. Se ocorrer um desastre natural ou uma interrupção política em uma região, as operações poderão ser transferidas para outra região para manter serviços ininterruptos.
O Uptime Institute utiliza um sistema de quatro camadas para avaliar a redundância e a resiliência dos data centers.4
Os data centers são projetados e equipados para controlar fatores ambientais inter-relacionados que podem danificar ou destruir o hardware e levar a tempos de inatividade dispendiosos ou catastróficos.
Os data centers contêm informações confidenciais e aplicações críticas para os negócios, que exigem uma estratégia de segurança abrangente que abranja data centers físicos e ambientes multinuvem.
As medidas de segurança do data center são a segurança física do hardware e dos dispositivos de armazenamento e também dos controles administrativos e de acesso. Abrange também a segurança de aplicações de software e políticas e procedimentos organizacionais. Os data centers em hiperescala, por exemplo, exigem firewalls especializados e outros protocolos para melhorar a cibersegurança.
O gerenciamento do data center engloba as tarefas e as ferramentas de que as organizações precisam para manter seus data centers privados operacionais, seguros e em conformidade. A pessoa responsável por realizar essas tarefas é conhecida como gerente de data center.
Um gerente de data center faz a manutenção geral, como atualizações de software e hardware, limpeza geral ou decisão sobre o arranjo físico dos servidores. Eles também tomam medidas proativas ou reativas contra qualquer ameaça ou evento que prejudique o data center.
Os gerentes de data center da empresa podem utilizar soluções de gerenciamento de infraestrutura de data center (DCIM) para simplificar o gerenciamento geral e otimizar o desempenho de TI. Essas soluções de software oferecem uma plataforma centralizada para os gerentes de data center monitorarem, medirem, gerenciarem e controlarem todos os elementos do data center em tempo real. Isso inclui tudo, desde componentes de TI locais até instalações como aquecimento, resfriamento e iluminação.
A sustentabilidade nos negócios é uma parte crucial das práticas ambientais, sociais e de governança (ESG). O Gartner observa que 87% dos líderes empresariais planejam investir mais em sustentabilidade nos próximos anos.5 Para esse fim, a redução do impacto ambiental dos data centers se alinha com metas de negócios mais amplas no esforço global para combater as mudanças climáticas.
A atual proliferação de cargas de trabalho orientadas por IA está impulsionando o crescimento do data center. A Goldman Sachs Research estima que a demanda de energia dos data centers crescerá 160% até 2030.5
A necessidade de reduzir o uso de energia está levando as organizações empresariais a buscar soluções de energia renovável para alimentar seus data centers em hiperescala. Essa ocorrência levou ao crescimento de data centers verdes, ou data centers sustentáveis, instalações que abrigam infraestrutura de TI e utilizam tecnologias de eficiência energética para otimizar o uso de energia e minimizar o impacto ambiental.
Adotando tecnologias como virtualização, hardware com eficiência energética e fontes de energia renováveis nos data centers, as organizações podem otimizar o uso de energia, reduzir o desperdício e poupar dinheiro. As certificações desempenham um papel fundamental no reconhecimento e na promoção de práticas sustentáveis nos data centers. Certificações e associações importantes são Leadership in Energy and Environmental Design (LEED), Energy Star e Green Grid.
A IBM Cloud conta com data centers globais em todo o mundo para ajudar você a atender rapidamente aos requisitos específicos de cada região.
A IBM Storage ajuda você a assegurar que seus dados fiquem seguros e com fácil acesso para tomadas de decisão mais rápidas e embasadas.
O IBM Cloud for VMware Solutions possibilita que você migre e modernize cargas de trabalho do VMware para a nuvem sem dificuldades. O recurso possibilita que você use seus investimentos existentes para uma experiência VMware uniforme, mantendo o mesmo nível de acesso, segurança e controle.
O IBM Turbonomic oferece gerenciamento moderno de data center com alocação inteligente de recursos, planejamento de capacidade e garantia de desempenho automático.
A IBM Cloud with Red Hat oferece segurança líder de mercado, escalabilidade empresarial e inovação aberta para aproveitar todo o potencial da nuvem e da IA.
Todos os links levam para fora do site ibm.com
1 "Google: The dalles, OR data center", DataCenters.com.
2 "Investing in the rising data center economy," McKinsey & Company, 17 de janeiro de 2023.
3 "IDC FutureScape: Worldwide Future of Digital Infrastructure 2023 Predictions," Mary Johnston Turner, IDC, 9 de dezembro de 2022.
4 "Tier Classification System," Uptime Institute.
5 "AI is poised to drive 160% increase in data center power demand," Goldman Sachs Research, 14 de maio de 2024.