主页
分析
BigQuality
IBM BigQuality 是一个数据质量解决方案,该解决方案提供一组在 Apache Hadoop 集群的数据节点上执行的数据剖析、清理和监控功能。IBM BigQuality 通过管理和监控 Hadoop 数据的数据以及应用程序数据质量规则,帮助确保信息质量,并提供快速适应战略性业务变化的能力。
BigQuality 和 IBM BigIntegrate 是专为在 Hadoop 集群上运行而构建的 IBM InfoSphere® Information Server 产品系列的一部分,可为 Hadoop 数据提供端到端集成和治理功能。
为方便使用而设计的图形界面可帮助企业快速转换整个企业的信息。与 IBM BigIntegrate 一起使用可创建功能丰富的应用程序选项板,其中包括连接到各种数据源的连接器,包括所有主要的传统数据库和平台(分布式、IBM z/OS®、文件类型、Oracle、Salesforce.com、SAP、Hadoop 等)。开发人员通过简单的拖放功能即可使用这些数据源。
IBM BigQuality 是一种高度可扩展的数据质量解决方案,有助于提高性能。通过特定接口可实现与通用数据源的本机连接,并通过内置的 IBM BigIntegrate 支持轻松实现。数百种内置转换功能可帮助您加快开发进度。通过使用和重复使用强大的开箱即用数据质量和集成功能,减少自定义编码所需的时间。
批量和实时使用全面且可定制的数据清理功能,自动执行源数据调查和数据分类。这种自动化使数据管理团队能够有效管理数据资产,并利用可信数据更快地响应业务目标。自动化功能可根据需要进行扩展,以帮助改进对目前发送到 Hadoop 的爆炸性数据量的处理。
随着数据提供者和消费者群体的扩大,数据敏感性的不确定性以及如何遵守快速增长的数据量的强制性监管要求也随之增加。IBM BigQuality 有助于调查包括 Hadoop 在内的各种数据源,并确保根据预定义策略进行适当的数据定位和使用。IBM BigQuality 帮助根据可定制的业务规则对记录进行标准化和匹配。
借助 IBM BigIntegrate 的强大功能进行部署,以创建功能齐全的集成式数据解决方案,将大数据和分析引入任何组织。将传统数据仓库工具与当前的大数据方法和技术相结合,包括 Hadoop、流计算、数据探索、高级分析、企业集成和 IBM Watson® 认知计算。
与 IBM BigIntegrate 配合使用,支持组织集成和转换任何 Hadoop 数据。利用现有和新的数据源,开展大数据计划。利用可扩展的企业级监控、清理和其他丰富而强大的数据质量功能,提高数据质量。持续将 Hadoop 数据转换为可信的受管信息。