Un centro de datos es una sala o instalación física que alberga la infraestructura de TI para crear, ejecutar y entregar aplicaciones y servicios. También almacena y gestiona los datos asociados con esas aplicaciones y servicios.
Los centros de datos comenzaron como instalaciones on premises de propiedad privada y estrictamente controladas que albergaban la infraestructura de TI tradicional para el uso exclusivo de una empresa. Recientemente, han evolucionado hacia instalaciones remotas o redes de instalaciones propiedad de proveedores de servicios en la nube (CSP). Estos centros de datos CSP albergan una infraestructura de TI virtualizada para el uso compartido de múltiples empresas y clientes.
Los centros de datos se remontan a la década de 1940. El Electrical Numerical Integrator and Computer (ENIAC) del ejército de los Estados Unidos, completado en 1945 en la Universidad de Pensilvania, es un ejemplo temprano de un centro de datos que requería espacio dedicado para albergar sus enormes máquinas.
A lo largo de los años, las computadoras se volvieron más eficientes en cuanto a tamaño, requiriendo menos espacio físico. En la década de 1990, las microcomputadoras entraron en escena, lo que redujo drásticamente la cantidad de espacio necesario para las operaciones de TI. Estas microcomputadoras que comenzaron a llenar las antiguas salas de computadoras mainframe pasaron a conocerse como “servidores”, y las salas pasaron a conocerse como “centros de datos”.
La llegada de la computación en la nube a principios de la década de 2000 revolucionó significativamente el escenario tradicional de los centros de datos. Los servicios en la nube permiten a las organizaciones acceder a recursos informáticos bajo demanda, a través de Internet, con precios de pago por uso, lo que permite la flexibilidad de escalar hacia arriba o hacia abajo según sea necesario.
En 2006, Google lanzó el primer centro de datos a hiperescala en The Dalles, Oregón. Esta instalación a hiperescala ocupa actualmente 1.2 millones de metros cuadrados de espacio y emplea a una plantilla de aproximadamente 200 operadores de centros de datos.1
Un estudio de McKinsey & Company proyecta que la industria crecerá a un ritmo del 10 % anual hasta 2030, con un gasto global en la construcción de nuevas instalaciones que alcanzará los 49,000 millones de dólares.2
Existen diferentes tipos de instalaciones de centros de datos, y una sola empresa puede usar más de un tipo, según las cargas de trabajo y las necesidades comerciales.
Este modelo de centro de datos aloja toda la infraestructura de TI y los datos en las instalaciones. Muchas compañías eligen centros de datos on premises. Tienen más control sobre la seguridad de la información y pueden cumplir más fácilmente con regulaciones como el Reglamento General de Protección de Datos (RGPD) de la Unión Europea o la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) de EE. UU. La compañía es responsable de todas las tareas de despliegue, monitoreo y administración en un centro de datos empresarial.
Los centros de datos en la nube (también denominados centros de datos de computación en la nube) albergan recursos de infraestructura de TI para uso compartido por múltiples clientes, desde puntuaciones hasta millones de clientes, a través de una conexión a Internet.
Muchos de los centros de datos en la nube más grandes, llamados centros de datos de hiperescala están administrados por los principales proveedores de servicios en la nube (CSP), como Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud y Microsoft Azure. Estas empresas tienen importantes centros de datos en todas las regiones del mundo. Por ejemplo, IBM opera más de 60 centros de datos de IBM Cloud en varios lugares del mundo.
Los centros de datos de hiperescala son más grandes que los centros de datos tradicionales y pueden cubrir millones de pies cuadrados. Por lo general, contienen al menos 5000 servidores y millas de equipos de conexión, y a veces pueden ser tan grandes como 60 000 pies cuadrados.
Los proveedores de servicios en la nube suelen mantener centros de datos periféricos (EDC) más pequeños ubicados más cerca de los clientes de la nube (y de los clientes de los clientes de la nube). Los centros de datos perimetrales forman la base para la computación edge, un marco informático distribuido que acerca las aplicaciones a los usuarios finales. Los centros de datos perimetrales son ideales para cargas de trabajo intensivas en datos en tiempo real, como los analytics de big data, inteligencia artificial (IA), aprendizaje automático (ML) y entrega de contenido. Ayudan a minimizar la latencia, lo que mejora el rendimiento general de las aplicaciones y la experiencia del cliente.
Los centros de datos gestionados y las instalaciones de colocación son opciones para las organizaciones que carecen del espacio, el personal o la experiencia para gestionar su infraestructura de TI en las instalaciones. Estas opciones son ideales para aquellos que prefieren no alojar su infraestructura empleando los recursos compartidos de un centro de datos en la nube pública.
En un centro de datos gestionado, la compañía cliente alquila servidores dedicados, almacenamiento y hardware de red del proveedor, y el proveedor se encarga de la administración, el monitoreo y la gestión de la compañía cliente.
En una instalación de colocación, la empresa cliente es propietaria de toda la infraestructura y alquila un espacio dedicado para alojarla dentro de la instalación. En el modelo de colocación tradicional, la empresa cliente tiene acceso exclusivo al hardware y plena responsabilidad de gestionarlo. Esto es ideal para la privacidad y la seguridad, pero a menudo no es práctico, especialmente durante interrupciones o emergencias. Hoy en día, la mayoría de los proveedores de colocación ofrecen servicios de gestión y monitoreo para los clientes que los desean.
Las empresas suelen elegir los centros de datos gestionados y las instalaciones de colocación para albergar la tecnología de copia de seguridad remota de datos y recuperación ante desastres (DR) para pequeñas y medianas empresas (PYME).
La mayoría de los centros de datos modernos, incluidos los internos, han evolucionado a partir de la arquitectura de TI tradicional. En lugar de ejecutar cada aplicación o carga de trabajo en un hardware dedicado, ahora utilizan una arquitectura en la nube en la que los recursos físicos, como las CPU, el almacenamiento y las redes, se virtualizan. La virtualización permite que estos recursos se abstraigan de sus límites físicos y se agrupen en capacidad que se puede asignar a múltiples aplicaciones y cargas de trabajo en cualquier cantidad que requieran.
La virtualización también permite la infraestructura definida por software (SDI), una infraestructura que se puede aprovisionar, configurar, ejecutar, mantener y "voltear" mediante programación, sin intervención humana.
Esta virtualización dio lugar a nuevas arquitecturas de centros de datos, como los centros de datos definidos por software (SDDC), un concepto de gestión de servidores que virtualiza elementos de infraestructura como redes, almacenamiento y computación, ofreciéndolos como un servicio. Esta capacidad permite a las organizaciones optimizar la infraestructura para cada aplicación y carga de trabajo sin realizar cambios físicos, lo que puede ayudar a mejorar el rendimiento y controlar los costos. IDC prevé que el 65 % de los compradores de tecnología darán prioridad a los modelos de centro de datos como servicio de aquí a 2026.3
La combinación de arquitectura en la nube y SDI ofrece muchos beneficios a los centros de datos y sus usuarios, como por ejemplo:
La virtualización permite a las compañías o nubes optimizar sus recursos y atender a la mayor cantidad de usuarios con la menor cantidad de hardware y con la menor capacidad no empleada o inactiva.
La automatización de SDI hace que el aprovisionamiento de nueva infraestructura sea tan fácil como hacer una solicitud a través de un portal de autoservicio.
La infraestructura de TI virtualizada es mucho más fácil de escalar que la infraestructura de TI tradicional. Incluso las empresas que emplean centros de datos locales pueden agregar capacidad bajo demanda al llevar cargas de trabajo a la nube cuando sea necesario.
Las empresas y las nubes pueden ofrecer a los usuarios una variedad de formas de consumir y entregar TI, todo desde la misma infraestructura. Las decisiones se toman en función de las demandas de la carga de trabajo e incluyen infraestructura como servicio (IaaS), plataforma como servicio (PaaS), software como servicio (SaaS) y más. Los CSP ofrecen estos servicios para usarlos en un centro de datos local privado o como soluciones de nube en un entorno de nube privada, nube pública, nube híbrida o multinube.
Otras soluciones de datos son los centros de datos modulares, instalaciones prediseñadas para su uso como centros de datos que también están preinstalados y equipados con el equipamiento de refrigeración necesario.
La contenerización y la computación sin servidor, junto con un sólido ecosistema de código abierto, permiten y aceleran los ciclos de DevOps y la modernización de aplicaciones, y posibilitan el desarrollo de aplicaciones una vez, su despliegue y en cualquier lugar.
Los servidores son potentes computadoras que proporcionan aplicaciones, servicios y datos a los dispositivos de los usuarios finales. Los servidores para centros de datos se presentan en varios factores de forma:
La elección del factor de forma depende de muchos aspectos, incluido el espacio disponible en el centro de datos, las cargas de trabajo que se ejecutan en los servidores, la potencia disponible y el costo.
La mayoría de los servidores incluyen alguna capacidad de almacenamiento local, llamada almacenamiento de conexión directa (DAS), para permitir que los datos de uso más frecuente (hot data) permanezcan cerca de la CPU.
Otras dos configuraciones de almacenamiento del centro de datos incluyen almacenamiento adjunto de red (NAS) y una red de área de almacenamiento (SAN).
Un NAS proporciona almacenamiento de datos y acceso a datos a múltiples servidores a través de una conexión Ethernet estándar. El dispositivo NAS suele ser un servidor dedicado con varios medios de almacenamiento, como unidades de disco duro (HDD) o unidades de estado sólido (SSD)
Al igual que NAS, un SAN permite el almacenamiento compartido, pero emplea una red separada para los datos y consiste en una combinación más compleja de múltiples servidores de almacenamiento, servidores de aplicaciones y software de gestión de almacenamiento.
Un solo centro de datos puede utilizar las tres configuraciones de almacenamiento (DAS, NAS y SAN), así como los tipos de almacenamiento de archivos, almacenamiento en bloque y almacenamiento de objetos.
La topología de la red de un centro de datos se refiere a la disposición física y la interconexión de los dispositivos de red de un centro de datos, incluidas la infraestructura, las conexiones entre servidores y componentes y el flujo de datos.
La red del centro de datos consta de varios equipos de red, como conmutadores, enrutadores y fibra óptica que conectan en red el tráfico entre los servidores (llamado tráfico este/oeste) y hacia o desde los servidores a los clientes (llamado tráfico norte/sur).
Como se señaló anteriormente, un centro de datos generalmente tiene servicios de red virtualizados. Esta capacidad permite la creación de redes superpuestas definidas por software, construidas sobre la infraestructura física de la red, para para acomodar controles de seguridad específicos o acuerdos de nivel de servicio (SLA).
Los centros de datos necesitan conexiones de gran ancho de banda para permitir las comunicaciones entre los servidores y los sistemas de almacenamiento y entre el tráfico de red entrante y saliente. En el caso de los centros de datos de hiperescala, los requisitos de ancho de banda pueden oscilar entre varios gigabits por segundo (Gbps) y terabits por segundo (Tbps).
Los centros de datos deben estar siempre activos, en todos los niveles. La mayoría de los servidores cuentan con fuentes de alimentación duales. Los sistemas de alimentación ininterrumpida (UPS) alimentados por baterías protegen contra sobretensiones y cortes breves de energía. Los generadores potentes pueden activarse si ocurre un corte de energía más grave.
La gestión de cables es una preocupación importante en el diseño del centro de datos, ya que varios cables conectan miles de servidores. Si los cables están demasiado cerca unos de otros, pueden provocar interferencias, lo que puede afectar negativamente la velocidad de transferencia de datos y la transmisión de señales. Además, si se empaquetan demasiados cables juntos, pueden generar calor excesivo. La construcción y ampliación de centros de datos deben tener en cuenta los códigos de construcción y las normas de la industria para garantizar que el cableado sea eficiente y seguro.
El tiempo de inactividad del centro de datos es costoso para los proveedores de centros de datos y para sus clientes. Los operadores y arquitectos de centros de datos hacen todo lo posible para aumentar la resiliencia de sus sistemas. Estas medidas incluyen matrices redundantes de discos independientes (RAID) para proteger contra la pérdida o corrupción de datos en caso de falla de los medios de almacenamiento. Otras medidas incluyen la infraestructura de enfriamiento del centro de datos de copia de seguridad que mantiene los servidores funcionando a temperaturas óptimas, incluso si falla el sistema de enfriamiento primario.
Muchos grandes proveedores de centros de datos tienen centros de datos ubicados en regiones geográficamente distintas. Si ocurre un desastre natural o una interrupción política en una región, las operaciones pueden transferirse a una región diferente para tener servicios ininterrumpidos.
El Uptime Institute utiliza un sistema de cuatro niveles para calificar la redundancia y la resiliencia de los centros de datos.4
Los centros de datos están diseñados y equipados para controlar los factores ambientales interrelacionados que pueden dañar o destruir el hardware y provocar tiempos de inactividad costosos o catastróficos.
Los centros de datos contienen información confidencial y aplicaciones críticas para el negocio, lo que requiere una estrategia de seguridad integral que abarque centros de datos físicos y entornos multinube.
Las medidas de seguridad del centro de datos incluyen la seguridad física del hardware y los dispositivos de almacenamiento, junto con los controles administrativos y de acceso. También abarca la seguridad de las aplicaciones de software y las políticas y procedimientos organizacionales. Los centros de datos de hiperescala, por ejemplo, requieren cortafuegos especializados y otros protocolos para mejorar la ciberseguridad.
La gestión de centros de datos abarca las tareas y herramientas que las organizaciones necesitan para mantener sus centros de datos privados operativos, seguros y en cumplimiento. La persona responsable de llevar a cabo estas tareas se conoce como gerente de centros de datos.
Un gerente de centros de datos realiza tareas de mantenimiento general, como actualizaciones de software y hardware, limpieza general o decidir la disposición física de los servidores. También toman medidas proactivas o en respuesta a cualquier amenaza o suceso que perjudique al centro de datos.
Los gerentes de centros de datos de la compañía pueden emplear soluciones de gestión de infraestructura de centros de datos (DCIM) para simplificar la gestión general y lograr la optimización del rendimiento de TI. Estas soluciones de software proporcionan una plataforma centralizada para que los gestores de centros de datos monitoreen, midan, gestionen y controlen todos los elementos del centro de datos en tiempo real. Esto incluye todo, desde los componentes de TI locales hasta instalaciones como la calefacción, la refrigeración y la iluminación.
La sustentabilidad en los negocios es una parte crucial de las prácticas medioambientales, sociales y de gobernanza (ESG). Gartner señala que el 87 % de los líderes empresariales planea invertir más en sustentabilidad en los próximos años.5 Con ese fin, la reducción del impacto ambiental de los centros de datos se alinea con los objetivos comerciales más amplios en el esfuerzo global para combatir el cambio climático.
La proliferación actual de cargas de trabajo basadas en IA está impulsando el crecimiento de los centros de datos. Goldman Sachs Research estima que la demanda energética de los centros de datos crecerá un 160 % de aquí a 2030.5
La necesidad de reducir el consumo de energía está impulsando a las empresas a buscar soluciones de energías renovables para alimentar sus centros de datos a hiperescala. Esta incidencia ha llevado al crecimiento de los centros de datos verdes, o de los centros de datos sostenibles, las instalaciones que albergan infraestructura de TI y utilizan tecnologías de bajo consumo energético para optimizar el uso energético y minimizar el impacto medioambiental.
Al adoptar tecnologías como la virtualización, el hardware de bajo consumo energético y las fuentes de energía renovables en los centros de datos, las organizaciones pueden optimizar el uso de la energía, reducir los residuos y ahorrar dinero. Las certificaciones desempeñan un papel fundamental en el reconocimiento y la promoción de prácticas sostenibles dentro de los centros de datos. Las certificaciones y asociaciones notables incluyen Leadership in Energy and Environmental Design (LEED), Energy Star y Green Grid.
IBM Cloud cuenta con centros de datos globales en todo el mundo para ayudarle a cumplir rápido los requisitos específicos de la geografía.
IBM Storage le ayuda a garantizar que sus datos estén seguros y sean fácilmente accesibles para una toma de decisiones más rápida e informada.
IBM Cloud for VMware Solutions le permite migrar y modernizar las cargas de trabajo de VMware a la nube perfectamente. Esta capacidad le permite utilizar sus inversiones existentes para una experiencia VMware coherente y conservar el mismo nivel de acceso, seguridad y control.
IBM Turbonomic proporciona una gestión moderna del centro de datos con asignación inteligente de recursos, planeación de la capacidad y garantía de rendimiento automatizada.
IBM Cloud with Red Hat ofrece seguridad líder en el mercado, escalabilidad empresarial e innovación abierta para desbloquear todo el potencial de la nube y la IA.
Todos los enlaces se encuentran fuera de ibm.com
1 "Google: The Dalles, OR Data Center," DataCenters.com.
2 "Investing in the rising data center economy," McKinsey & Company, 17 de enero de 2023.
3 "IDC FutureScape: Worldwide Future of Digital Infrastructure 2023 Predictions," Mary Johnston Turner, IDC, 9 de diciembre de 2022.
4 "Tier Classification System," Uptime Institute.
5 "AI is poised to drive 160 % increase in data center power demand," Goldman Sachs Research, 14 de mayo de 2024.