Hadoop o Apache Hadoop es un marco de software de código abierto desarrollado por Douglas Cutting, antes en Yahoo, que ofrece un procesamiento distribuido altamente confiable de grandes conjuntos de datos a través de modelos de programación simples.
Hadoop superó las limitaciones de escalabilidad de Nutch y se basa en clústeres de computadoras básicas, lo que proporciona una solución rentable para almacenar y procesar cantidades masivas de datos estructurados, semiestructurados y no estructurados sin requisitos de formato.
Una arquitectura de data lake que incluya Hadoop puede ofrecer una solución de gestión de datos flexible para sus iniciativas de analytics de big data . Debido a que Hadoop es un proyecto de código abierto y sigue un modelo de computación distribuida, puede ofrecer precios que ahorran presupuesto para una solución de software y almacenamiento de big data.
Hadoop también se puede instalar en servidores en la nube para gestionar mejor los recursos informáticos y de almacenamiento necesarios para big data. Para mayor comodidad, los agentes de los sistemas operativos Linux, UNIX y Windows están preconfigurados y se pueden iniciar automáticamente.
Los principales proveedores de nube, como Amazon Web Services (AWS) y Microsoft Azure, ofrecen soluciones. Cloudera admite cargas de trabajo de Hadoop tanto on-premises como en la nube, incluidas opciones para uno o más entornos de nube pública de múltiples proveedores. Use las API de monitoreo de Hadoop para agregar, actualizar, eliminar y ver los clústeres y servicios en los clústeres, y para todos los demás tipos de monitoreo en Hadoop.
La infraestructura de Hadoop, desarrollada por la Apache Software Foundation, incluye:
Las utilidades y bibliotecas comunes que admiten los otros módulos de Hadoop. También conocido como Hadoop Core.
Es un sistema de archivos distribuido para almacenar datos de aplicaciones en hardware básico. HDFS se diseñó para proporcionar tolerancia a fallas para Hadoop y proporciona un alto ancho de banda de datos agregados y acceso de alto rendimiento a los datos.
De forma predeterminada, los bloques de datos se replican en varios nodos en el momento de la carga o la escritura. El grado de replicación es configurable: la replicación predeterminada es tres. La arquitectura HDFS presenta un NameNode para administrar el espacio de nombres del sistema de archivos y el acceso a archivos y múltiples DataNodes para gestionar el almacenamiento de datos. Al habilitar la alta disponibilidad, se puede usar un nodo secundario cuando un nodo activo deja de funcionar.
¿Qué es Hadoop Distributed File System (HDFS)?
Apache Hadoop YARN de código abierto es un marco para la programación de trabajos y la administración de recursos de clúster que se puede usar con IBM Spectrum Sínhony en Linux y Linux en POWER. YARN significa Yet Another Resource Negotiator. Admite más cargas de trabajo, como SQL interactivo, modelado avanzado y transmisión en tiempo real.
Un sistema basado en YARN que almacena datos en múltiples fuentes y potencia para el procesamiento paralelo de grandes cantidades de datos. Existen varias técnicas de optimización disponibles para MapReduce para acelerar los trabajos.
Un almacén de objetos escalable, redundante y distribuido diseñado para aplicaciones de big data.
Apache Hadoop fue escrito en Java pero, dependiendo del proyecto de big data, los desarrolladores pueden programar en el lenguaje que elijan, como Python, R o Scala. La empresa de servicios públicos Hadoop permite a los desarrolladores crear y ejecutar trabajos de MapReduce con cualquier script o ejecutable como mapeador o reductor.
Apache Spark a menudo se compara con Hadoop, ya que también es una infraestructura de código abierto para el procesamiento de big data. De hecho, Spark se creó inicialmente para mejorar el rendimiento del procesamiento y ampliar los tipos de cálculos posibles con Hadoop MapReduce. Spark utiliza procesamiento en memoria, lo que significa que es mucho más rápido que las capacidades de lectura/escritura de MapReduce.
Si bien Hadoop es mejor para el procesamiento por lotes de grandes volúmenes de datos, Spark admite el procesamiento de datos por lotes y en tiempo real, y es ideal para la transmisión de datos y cálculos gráficos. Tanto Hadoop como Spark tienen bibliotecas de aprendizaje automático, pero, nuevamente, debido al procesamiento en memoria, el aprendizaje automático de Spark es mucho más rápido.
Spark es más rápido porque utiliza memoria de acceso aleatorio (RAM) en lugar de leer y escribir datos intermedios en discos. Hadoop almacena datos en múltiples fuentes y los procesa por lotes mediante MapReduce.
Hadoop tiene un costo menor, ya que utiliza cualquier tipo de almacenamiento en disco para el procesamiento de datos. Spark tiene un costo mayor porque utiliza cálculos en memoria para el procesamiento de datos en tiempo real, lo que requiere el uso de grandes cantidades de RAM para activar los nodos.
Aunque ambas plataformas procesan datos en un entorno distribuido, Hadoop es ideal para el procesamiento por lotes y el procesamiento lineal de datos. Spark es ideal para el procesamiento en tiempo real y el procesamiento de flujos de datos no estructurados en vivo.
Cuando el volumen de datos crece rápidamente, Hadoop escala rápidamente para satisfacer la demanda mediante el Sistema de Archivos Distribuidos de Hadoop (HDFS). A su vez, Spark utiliza el HDFS con tolerancia a fallos para grandes volúmenes de datos.
Spark mejora la seguridad con autenticación mediante secreto compartido o registro de eventos, mientras que Hadoop utiliza múltiples métodos de autenticación y control de acceso. Si bien Hadoop es más seguro en general, Spark puede integrarse con él para alcanzar un mayor nivel de seguridad.
Spark es la plataforma superior en esta categoría porque incluye MLlib, que realiza cálculos iterativos de ML en memoria. También incluye herramientas que realizan regresión, clasificación, persistencia, construcción de pipelines, evaluación, etc.
Integre datos en tiempo real (transmisión de audio, video, sentimiento de las redes sociales y datos de secuencia de clics) y otros datos semiestructurados y no estructurados que no se utilizan en un almacén de datos o una base de datos relacional. Unos datos más completos proporcionan decisiones más precisas.
Impulse el acceso de autoservicio en tiempo real para sus científicos de datos, propietarios de líneas de negocio (LOB) y desarrolladores. Hadoop puede impulsar la ciencia de datos, un campo interdisciplinario que utiliza datos, algoritmos, aprendizaje automático e IA para análisis avanzados para revelar patrones y generar predicciones.
Agilice los costos en los centros de datos de su empresa moviendo datos “fríos” que no se utilizan actualmente a una distribución basada en Hadoop para su almacenamiento. O consolide datos en toda la organización para aumentar la accesibilidad y reducir los costos.
Diseñe una estrategia de datos que elimine los silos de datos, reduzca la complejidad y mejore la calidad de los datos para ofrecer experiencias excepcionales a clientes y empleados.
watsonx.data le permite escalar los analytics y la IA con todos sus datos, sin importar donde residan, a través de un almacén de datos abierto, híbrido y gobernado.
Desbloquee el valor de los datos empresariales con IBM Consulting, y construya una organización impulsada por insights que ofrezca ventajas empresariales.