IBM BigQuality es una solución de calidad de datos que proporciona un amplio conjunto de capacidades de creación de perfiles, limpieza y supervisión de datos que se ejecutan en los nodos de datos de un clúster de Apache Hadoop. IBM BigQuality ayuda a garantizar la calidad de la información y proporciona la capacidad de adaptarse de forma rápida a los cambios estratégicos del negocio mediante la administración y monitoreo de los datos y la aplicación de reglas de calidad de datos para los datos de Hadoop.
Parte de la familia de productos IBM InfoSphere® Information Server diseñada específicamente para ejecutarse en clústeres Hadoop, BigQuality e IBM BigIntegration ofrecen capacidades completas de integración y gobernanza para sus datos Hadoop.
Una interfaz gráfica diseñada para facilitar el uso ayuda a las organizaciones a transformar con rapidez la información en toda la empresa. Utilícelo con IBM BigIntegrate para crear una paleta de aplicaciones con una gran cantidad de funciones que incluyen conectores a una amplia gama de orígenes de datos, entre las que se incluyen las principales bases de datos y plataformas tradicionales: distribuidas, IBM z/OS,® tipos de archivos, Oracle, Salesforce.com, SAP, Hadoop y más. Los desarrolladores ponen a disposición estas fuentes de datos mediante sencillas funciones de arrastrar y soltar.
IBM BigQuality es una solución de calidad de datos altamente escalable que ayuda a mejorar el rendimiento. La conectividad nativa para fuentes de datos comunes está disponible a través de interfaces específicas y se logra de manera fácil con el soporte integrado para IBM BigIntegrate. Cientos de funciones de transformación incorporadas le permiten acelerar su cronograma de desarrollo. Reduzca el tiempo requerido para la codificación personalizada mediante el uso y la reutilización de potentes funciones de integración y calidad de datos originales.
Utilice una funcionalidad de limpieza de datos completa y personalizable por lotes y en tiempo real para automatizar la investigación y la clasificación de datos de origen. Esta automatización permite al equipo de administración de datos administrar los activos de datos de manera efectiva y responder más rápido a los objetivos comerciales con datos confiables. Las funciones de automatización se escalan según sea necesario para ayudar a mejorar el procesamiento de la cantidad enorme de datos que ahora se envían a Hadoop.
A medida que la comunidad de proveedores de datos y consumidores se amplía, también lo hace la incertidumbre sobre la confidencialidad de los datos y cómo cumplir con los requisitos normativos obligatorios para volúmenes de datos en rápido crecimiento. IBM BigQuality ayuda a inspeccionar los distintos orígenes de datos, incluido Hadoop, y a garantizar la ubicación y el uso adecuados de los datos de acuerdo con las políticas predefinidas. IBM BigQuality ayuda a estandarizar y hacer coincidir los registros de acuerdo con reglas de negocio personalizables.
Implemente con la potencia de IBM BigIntegrate para crear una solución de datos integrada con todas las funciones que puedan llevar big data y capacidades de análisis a cualquier organización. Combine las herramientas tradicionales de almacenamiento de datos con las técnicas y tecnologías actuales de big data, como Hadoop, Stream Computing, exploración de datos, analítica avanzada, integración empresarial e IBM Watson® Cognitive Computing.
Utilícelo con IBM BigIntegrate para permitir que su organización integre y transforme cualquier dato de Hadoop. Aproveche las fuentes de datos existentes y nuevas para las iniciativas de big data. Mejore los datos con capacidades escalables de monitoreo y limpieza de clase empresarial, entre otras capacidades de calidad de datos enriquecidas y sólidas. Transforme continuamente los datos de Hadoop en información confiable y gobernada.
Vea cómo IBM se ha posicionado como líder en el Cuadrante Mágico para la integración de datos durante más de una década.
Conozca las características y funciones más recientes de la familia InfoSphere Information Server, que incluyen actualizaciones de conectores y nuevas distribuciones de Hadoop.