Um data center é uma sala, prédio ou instalação física que abriga a infraestrutura de TI para desenvolvimento, execução e entrega de aplicativos e serviços, além de armazenar e gerenciar os dados associados a esses aplicativos e serviços.
Um data center é formado principalmente por servidores, sistemas de armazenamento, sistemas de rede e outros equipamentos de processamento.
Os data centers evoluíram nos últimos anos, passando de instalações de propriedade de uma única empresa, que hospedavam a infraestrutura de TI tradicional de uso exclusivo dessa empresa e controladas de maneira rígida localmente, para instalações ou redes de instalações de propriedade de provedores de serviços de cloud, que abrigam infraestruturas de TI virtualizadas para uso compartilhado entre diversas empresas e clientes.
Existem diferentes tipo de instalações de data centers e uma única empresa pode usar mais de um tipo, dependendo da carga de trabalho e necessidade de negócios.
Neste modelo de data center, toda a infraestrutura de TI e de dados é hospedada localmente. Muitas empresas optam por ter seus próprios data centers no local pois acreditam que têm mais controle sobre a segurança das informações e podem cumprir mais facilmente regulamentações como o Regulamento Geral de Proteção de Dados (RGPD) da União Europeia ou o Health Insurance Portability and Accountability Act (HIPAA) dos Estados Unidos. Em um data center corporativo, a empresa é responsável por todas as tarefas de implementação, monitoramento e gerenciamento.
O data centers em cloud (também chamados de data centers da cloud computing) hospedam recursos de infraestrutura de TI para uso compartilhado entre diversos clientes, desde quantidades pequenas até milhões de consumidores, por meio de uma conexão com a Internet.
Muitos dos maiores data centers em cloud, conhecidos como data centers em hiperescala, são administrados pelos principais provedores de serviço, como IBM Cloud, Amazon Web Services (AWS), Google Cloud Plataform, Microsoft Azure e Oracle Cloud Infrastructure. Na verdade, a maioria dos principais provedores de cloud possuem diversos data centers em hiperescala espalhados por todo o mundo. Geralmente, os provedores de serviços em cloud mantêm data centers de borda próximos aos consumidores de cloud (e dos clientes dos consumidores de cloud). Para cargas de trabalho com uso intensivo de dados em tempo real, como análise de Big Data, inteligência artificial (IA) e aplicativos de entrega de conteúdo, os data centers de borda podem ajudar a minimizar a latência, melhorando o desempenho geral dos aplicativos e a experiência do cliente.
Os data centers gerenciados e as instalações de colocation são opções para organizações que não têm espaço, pessoal ou experiência para implementar e gerenciar parte ou toda sua infraestrutura de TI nas instalações locais, mas preferem não hospedar essa infraestrutura usando os recursos compartilhados de um data center público em cloud.
Em um data center gerenciado, a empresa cliente aluga servidores dedicados, armazenamento e hardware de rede junto ao provedor de data center; o provedor de data center, por sua vez, realiza a administração, monitoramento e gerenciamento para a empresa cliente.
Em uma instalação de colocation, a empresa cliente é dona de toda a infraestrutura e aluga um espaço dedicado para hospedá-la dentro das instalações. No modelo tradicional de colocation, a empresa cliente tem acesso somente ao hardware e é totalmente responsável por seu gerenciamento; essa é a opção ideal para quem deseja privacidade e segurança, mas geralmente é inviável, especialmente durante quedas ou emergências. Hoje, a maioria dos provedores de colocation oferecem serviços de gerenciamento e monitoramento para os clientes que desejam contratá-los.
Os data centers gerenciados e instalações de colocation são frequentemente usados para abrigar backups de dados remotos e tecnologia de recuperação de desastres para pequenas e médias empresas (SMBs).
Servidores são computadores poderosos que entregam aplicativos, serviços e dados para dispositivos de usuários finais. Os servidores de data centers possuem diversos formatos:
Servidores montados em rack são servidores independente largos e planos, do tamanho de uma pequena caixa de pizza, projetados para serem empilhados em um rack para economizar espaço (em comparação com um servidor desktop ou em torre). Cada servidor montado em rack possui seu próprio fornecimento de energia, ventiladores de resfriamento, switch e portas de rede, juntamente com o processador, a memória e a área de armazenamento usuais.
Servidores blade são projetados para economizar ainda mais espaço. Cada blade contém processadores, controladores de rede, memória e, algumas vezes, armazenamento; eles foram criados para se encaixar em um chassi que comporta diversos blades e contém a fonte de alimentação, o gerenciamento de rede e os outros recursos para todos os blades no chassi.
Mainframes são computadores de alto desempenho com múltiplos processadores que podem executar o serviço de uma sala inteira de servidores blade ou em rack. Os mainframes foram os primeiros computadores virtualizáveis e podem processar bilhões de cálculos e transações em tempo real.
A opção de forma depende de diversos fatores, incluindo o espaço disponível no data center, as cargas de trabalho executadas nos servidores, a energia disponível e o custo.
A maioria dos servidores inclui algum recurso de armazenamento local, chamado de Direct-Attached Storage (DAS), para permitir que os dados usados com maior frequência fiquem mais próximos à CPU.
Duas outras configurações de armazenamento de data center incluem Network-Attached Storage (NAS) e uma rede de área de armazenamento (SAN).
O NAS oferece armazenamento e acesso de dados para vários servidores por meio de uma conexão Ethernet padrão. O dispositivo NAS geralmente é um servidor dedicado com diversas mídias de armazenamento, unidades de disco rígido (HDDs) e ou unidades de estado sólido (SSDs).
Como o NAS, um SAN permite armazenamento compartilhado, mas um SAN utiliza uma rede separada para os dados e consiste em um conjunto mais complexo de diversos servidores de armazenamento, servidores de aplicativos e software de gerenciamento de armazenamento.
Um único data center pode usar todas as três configurações de armazenamento, DAS, NAS e SAN, além de armazenamento de arquivos, armazenamento em blocos e armazenamento de objetos .
A rede do data center, composta por vários tipos de switches, roteadores e fibra ótica, transporta o tráfego de rede entre os servidores (chamado tráfego leste/oeste) e de/para os servidores para os clientes (chamado tráfego norte/sul).
Como observado acima, os serviços de rede de um data center são tipicamente virtualizados. Isso permite a criação de redes sobrepostas definidas por software, construídas sobre a infraestrutura física da rede, para acomodar controles de segurança específicos ou acordos nível de serviço (SLAs).
Data centers precisam estar sempre disponíveis, em todos os níveis. A maioria dos servidores possui fontes de alimentação duplas. Fontes de alimentação ininterruptas (UPS) alimentadas por bateria protegem contra picos de energia e quedas breves de energia. Geradores potentes podem entrar em ação caso ocorra uma queda de energia mais grave.
Com milhares de servidores conectados por vários cabos, a organização de cabos é uma questão importante no design de data centers. Se os cabos estiverem muito próximos uns aos outros, isso pode causar diafonia, que por sua vez pode afetar as taxas de transferência de dados e a transmissão de sinais. Além disso, se muitos cabos forem agrupados, o resultado pode ser a geração de calor excessivo. A construção e expansão do data center deve considerar o código de obras e edificações, além dos padrões de mercado, para assegurar que o cabeamento seja eficiente e seguro.
O tempo de inatividade em data centers gera prejuízo para provedores de data centers e seus clientes; operadores e arquitetos de data center fazem todo o possível para aumentar a resiliência de seus sistemas. Essas medidas incluem desde Redundant Arrays of Independent Disks (RAIDs) para proteger-se contra perda ou danos de dados no caso de falhas nas mídias de armazenamento, à infraestrutura de backup de resfriamento de data center, que mantém os servidores na temperatura ideal mesmo no caso de falha do sistema de resfriamento principal.
Muitos provedores de data center de grande porte possuem data centers localizados em regiões geograficamente distintas portanto, no caso de um desastre natural ou interferência política em uma região, as operações podem ser transferidas para outra região, oferecendo serviços sem interrupção.
O Uptime Institute (link externo à ibm.com) usa um sistema de quatro níveis para classificação a redundância e resiliência de data centers:
Tier I: oferece componentes de capacidade básica de redundância, como fonte de alimentação ininterrupta (UPS) e resfriamento 24 horas para suporte das operações de TI de um ambiente de escritório ou além.
Tier II: acrescenta subsistemas redundantes adicionais de energia e resfriamento, como geradores e dispositivos de armazenamento de energia, para oferecer maior segurança contra interrupções.
Tier III: adiciona componentes redundantes como diferenciador chave de outros data centers. As instalações Tier III não necessitam de desligamentos quando o equipamento precisa de manutenção ou substituição.
Tier IV: inclui tolerância a falhas ao implementar vários componentes de capacidade redundante independentes e fisicamente isolados de modo que, quando uma parte do equipamento falha, não há impacto para as operações de TI.
Os data centers devem ser projetados e equipados para controlar fatores ambientais, a maioria deles interrelacionados, que possam danificar ou destruir hardware e resultar em tempo de inatividade oneroso e catastrófico.
A maioria dos data centers modernos, mesmo os data centers internos no local, evoluíram da arquitetura tradicional de TI, em que cada aplicativo ou carga de trabalho possuía seu próprio hardware dedicado, para a arquitetura em cloud, em que recursos de hardware físicos (como CPUs, armazenamento e rede) são virtualizados. A virtualização permite eliminar a limitação física desses recursos e colocá-los em um conjunto que pode ser alocado para diversos aplicativos e cargas de trabalho, em qualquer volume necessário.
A virtualização também possibilita a infraestrutura definida por software (SDI), infraestrutura essa que pode ser provisionada, configurada, executada, mantida e "reduzida" programaticamente, sem intervenção humana.
A combinação da arquitetura de cloud e SDI oferece diversas vantagens para data centers e seus usuários, incluindo:
Utilização ideal dos recursos de computação, armazenamento e rede. A virtualização permite que empresas ou cloud atendam o maior número de usuários com o mínimo de hardware possível, além da menor capacidade não utilizada ou ociosa possível.
Rápida implementação de aplicativos e serviços. A automação da SDI torna o provisionamento de uma nova infraestrutura tão simples quanto fazer uma solicitação por meio de um portal de autoatendimento.
Escalabilidade. A infraestrutura de TI virtualizada é muito mais fácil de escalar do que a infraestrutura de TI tradicional. Até mesmo as empresas que usam data centers no local podem incluir capacidade on demand ao enviar cargas de trabalho para a cloud quando necessário.
Variedade de serviços e soluções de data centers. As empresas e a cloud podem oferecer aos usuários diversas maneiras de consumir e entregar TI, todas vindas da mesma infraestrutura. As escolhas são feitas com base nas demandas de carga de trabalho e incluem Infrastructure as a Service (IaaS), Platform as a Service (PaaS) e Software as a Service (SaaS). Esses serviços podem ser oferecidos em um data center privado ou como soluções de cloud, seja em um ambiente de cloud privada, cloud pública, cloud híbrida ou multicloud.
Desenvolvimento nativo de cloud. A computação por conteinerização e serverless, juntamente com um robusto ecossistema de software livre, capacitam e aceleram ciclos de DevOps e modernização de aplicativos , além de possibilitar aplicativos "develop-once-deploy-anywhere".
Soluções modernas de infraestrutura convergente (CI) combinam servidores, armazenamento e rede em uma plataforma integrada.
Saiba mais sobre os IBM Cloud Data Centers localizados em todo o mundo para ajudá-lo a atender rapidamente os requisitos regionais específicos.
A IBM Cloud with Red Hat oferece segurança líder no mercado, escalabilidade corporativa e inovação aberta para aproveitar todo o potencial da cloud e da IA.
Um ambiente definido por software onde a otimização de serviços fornece o caminho.
Ofereça rapidamente um data center flexível, escalável e energeticamente eficiente em um formato modular pré-fabricado.
Aprenda mais sobre a fundação da infraestrutura de TI e como ela ajuda a criar vantagem competitiva na escala empresarial.
Saiba mais sobre como os bancos de dados relacionais funcionam e como eles se comparam a outras opções de armazenamento de dados.