Qu'est-ce que Hadoop ?

Apache Hadoop offre un traitement très fiable, évolutif et distribué de grands ensembles de données à l'aide de modèles de programmation simples. Avec la possibilité d'être construit sur des clusters d'ordinateurs standards, Hadoop fournit une solution rentable pour le stockage et le traitement de données structurées, semi-structurées et non structurées sans exigences de format.

Cas d’usages Big Data pour Hadoop

Nouveaux formats de données : Utilisez de nouvelles formes de données semi-structurées et non structurées telles que le streaming audio et vidéo, les médias sociaux, les sentiments et les données de clickstream qui ne peuvent pas être ingérées dans l'entrepôt de données d'entreprise (EDW). Ces données peuvent fournir des décisions analytiques plus précises en réponse aux nouvelles technologies d'aujourd'hui telles que l'Internet des Objets (IOT), l'Intelligence Artificielle (AI), le cloud et le mobile.
Data Lake (lac de données) : Fournir une plate-forme d'accès en temps réel, en libre-service et d'analyses avancées pour les utilisateurs de données comme les scientifiques, les responsables métiers et les développeurs. Le lac de données Hadoop est l'avenir de la science des données, un domaine interdisciplinaire qui combine l'apprentissage machine, la statistique, l'analyse avancée et la programmation.
Déchargement et consolidation des données : Optimisez votre entrepôt de données d'entreprise (EDW) et rationalisez vos coûts en déplaçant les données "froides" ou non utilisées actuellement vers un lac de données Hadoop. La consolidation en déplaçant les données en silo vers le lac de données permet de réduire les coûts, d'accroître l'accessibilité et d'améliorer la précision des

Outils IBM BigData

100% Open Source

Le partenariat entre IBM et Hortonworks fournit une plate-forme intégrée et open source basée sur Hadoop avec les outils nécessaires pour les charges de travail analytiques avancées. Les deux sociétés sont membres de l'Open Data Platform Initiative (ODPi), une association de normes multi-fournisseurs visant à promouvoir l'adoption de Hadoop.

Evolutivité de Hadoop

Distribution pour l’entreprise

La combinaison de la plate-forme Hortonworks avec IBM Db2® Big SQL offre les avantages de Hadoop avec une sécurité, une gouvernance et des capacités d'apprentissage machine supplémentaires. Db2 Big SQL est la première solution SQL-on-Hadoop qui comprend la syntaxe SQL communément utilisée par d'autres fournisseurs et produits tels que Oracle, IBM Db2 et IBM Netezza®.

Outils avancés avec Apache Hadoop

IBM et Hortonworks, combinaison gagnante

Construisez, gouvernez, sécurisez et obtenez rapidement des informations analytiques précieuses à partir de vos données en utilisant un seul écosystème de produits et services. Bénéficiez d'une collaboration et d'investissements combinés dans la communauté open source, tout en éliminant les problèmes de connectivité et de stabilité.

A la une

Démarrez avec Apache Hadoop®.

La plate-forme de données Hortonworks pour IBM offre une distribution Hadoop open source sécurisée et prête à l'emploi, basée sur une architecture centralisée. HDP pour IBM couvre une large gamme de cas d'utilisation de données au repos, alimente les applications client en temps réel et fournit des analyses robustes qui accélèrent la prise de décision et l'innovation.

Accélérer la collecte de données et la gestion des flux de données.

Hortonworks DataFlow pour IBM, optimisé par Apache NiFi, est la première plate-forme intégrée qui résout les problèmes de collecte et de transport de données provenant d'une multitude de sources. HDF pour IBM permet une acquisition de données simple et rapide, un transport de données sécurisé, un flux de données hiérarchisé et une traçabilité claire des données depuis la périphérie de votre réseau jusqu'au cœur du centre de données. Il cobine une interface graphique intuitive, un mécanisme d'accès et d'autorisation haute fidélité et une chaîne de filage permanente (provenance des données).

Accéléré et stable Apache Hadoop® Hadoop®.

La meilleure façon d'aller de l'avant avec Hadoop est de choisir un package d'installation qui simplifie l'interopérabilité afin qu'un environnement Hadoop reste aussi standardisé que possible. L'Open Data Platform Initiative (ODPi) est une association de normes multi-fournisseurs visant à promouvoir l'adoption de Hadoop dans l'entreprise en promouvant l'interopérabilité des grands outils de données. ODPi simplifie et standardise le grand écosystème de données Apache Hadoop avec une spécification de référence commune appelée ODPi Core.

Ressources documentaires Hadoop

Accédez aux rapports d'analyse, aux fiches techniques, aux livres blancs et bien plus encore.

IBM Db2 Big SQL - fiche technique

Grace a Spark SQL, le moteur SQL open source disponible le plus rapide, augmentez la puissance de Apache Hadoop. Spark SQL vous aide a rendre les environnements des données plus rapides que jamais.

Hortonworks Data Platform - fiche technique

HDP adresse les données stratégiques, intègre les insights clients en temps réel et offre de l’analytique afin d’accélerer la prise de decision et l’innovation.

Hortonworks Data Flow- fiche technique

HDF a été conçu pour relever les défis de collecte de données d’une vaste gamme de sources d’une manière sécurisée, efficace et sans limitions géographiques.

Références clients

 

E&Y (cas d'utilisation)

Ernst and Young

Ernst & Young utilise le Big Data et l'analyse de données pour lutter contre la fraude et atténuer le risque pour ses clients.

Le succès d'Optibus grâce à Hadoop

Optibus

Optibus offre des transports publics plus intelligents grâce à l'analyse en temps réel des données en mouvement.

Le succès de Teikoku grâce à Hadoop

Teikoku Databank, Ltd

Teikoku Databank réduit le temps de traitement de milliards d'éléments de données textuelles de quelques jours à 30 minutes.