Współpraca kluczem do sukcesu — zaawansowane narzędzia analityczne od IBM i Hortonworks

Czym jest Apache Hadoop®?

Apache Hadoop umożliwia wysoce niezawodne, skalowalne i rozproszone przetwarzanie dużych zestawów danych przy użyciu prostych modeli programistycznych. Dzięki możliwości budowania klastrów złożonych z komputerów klasy popularnej Hadoop stanowi efektywne kosztowo rozwiązanie do przechowywania i przetwarzania ustrukturyzowanych, częściowo ustrukturyzowanych i nieustrukturyzowanych danych bez konieczności ich formatowania.

Najważniejsze zastosowania Hadoop w kontekście wielkich zbiorów danych

  1. Nowe formaty danych — wykorzystuj nowe postacie danych częściowo ustrukturyzowanych i nieustrukturyzowanych, takie jak strumieniowo przesyłane treści audio i wideo, serwisy społecznościowe i zapis kliknięć, których nie można zaimportować do korporacyjnej hurtowni danych (Enterprise Data Warehouse — EDW). Dane te pozwalają podejmować lepsze decyzje analityczne, uwzględniające nowe technologie, na przykład internet rzeczy (Internet of Things — IOT), sztuczną inteligencję (Artificial Intelligence — AI), chmurę czy urządzenia mobilne.  
  2. Analiza nad jeziorem danych — działająca w czasie rzeczywistym platforma, która zapewnia użytkownikom takim jak analitycy danych, użytkownicy biznesowi (LOB) czy twórcy oprogramowania samoobsługowy dostęp i zaawansowane analizy. Oparte na platformie Hadoop jezioro danych to przyszłościowe rozwiązanie w zakresie analityki danych, czyli interdyscyplinarnej dziedziny łączącej uczenie maszynowe, statystykę, zaawansowane analizy i programowanie.
  3. Przenoszenie i konsolidacja danych — zoptymalizuj działanie korporacyjnej hurtowni danych (EDW) i zmniejsz koszty, przenosząc nieaktywne lub aktualnie nieużywane dane do jeziora danych opartego na platformie Hadoop. Konsolidacja danych przechowywanych w odrębnych systemach poprzez ich przeniesienie do jeziora danych ogranicza wydatki, zwiększa dostępność oraz sprzyja podejmowaniu trafnych, przemyślanych decyzji.

Dowiedz się więcej o wielkich zbiorach danych

Funkcje

open source iconography

100-procentowo otwarta platforma Open Source

W wyniku współpracy IBM i Hortonworks powstała zintegrowana platforma Open Source oparta o technologię Hadoop, która oferuje narzędzia niezbędne do przetwarzania skomplikowanych obciążeń analitycznych. Oba przedsiębiorstwa realizują inicjatywę Open Data Platform Initiative (ODPi), stanowiącą wspólne przedsięwzięcie wielu dostawców i mającą na celu promocję wdrażania rozwiązania Hadoop

Database iconography

Dystrybucja klasy korporacyjnej

Połączenie platformy Hortonworks z rozwiązaniem IBM Db2® Big SQL zapewnia korzyści płynące z technologii Hadoop, a dodatkowo funkcje bezpieczeństwa, nadzoru i uczenia maszynowego. Db2 Big SQL to pierwsze rozwiązanie „SQL-on-Hadoop”, które rozumie popularną składnię SQL wykorzystywaną przez innych dostawców i inne produkty, m.in. Oracle, IBM Db2 czy IBM Netezza®.

Connection iconography

IBM i Hortonworks — razem można więcej

Twórz, nadzoruj i zabezpieczaj analizy danych, a następnie błyskawicznie pozyskuj z nich cenne informacje, korzystając z pojedynczego ekosystemu produktów i usług. Korzystaj z efektu współpracy gigantów i inwestycji w społeczność oprogramowania Open Source, jednocześnie eliminując trudności związane z łącznością i stabilnością.

W centrum uwagi

Pierwsze kroki z Apache Hadoop®

IBM, we współpracy z przedsiębiorstwem Hortonworks, oferuje platformę Hortonworks Data Platform (HDP) — bezpieczną dystrybucję Open Source Hadoop, opartą na scentralizowanej architekturze i gotową do wdrożenia w przedsiębiorstwie. Platforma HDP połączona z rozwiązaniem IBM Db2 Big SQL odpowiada na szereg wyzwań związanych z danymi w spoczynku i w ruchu, umożliwia stowarzyszanie danych w obrębie całej organizacji, usprawnia aplikacje klienta działające w czasie rzeczywistym, a także pozwala przeprowadzać zaawansowane analizy skracające czas podejmowania decyzji.

Szybsze gromadzenie wielkich zbiorów danych i błyskawiczny przepływ danychw przedsiębiorstwie

Rozwiązanie Hortonworks DataFlow (HDF) for IBM, oparte na oprogramowaniu Apache NiFi, to pierwsza zintegrowana platforma, która rozwiązuje problem gromadzenia i przenoszenia danych z wielu źródeł. Rozwiązanie HDF for IBM umożliwia łatwe i szybkie pozyskiwanie danych, bezpieczne ich przesyłanie, przepływ danych priorytetowych oraz możliwość śledzenia dokładnej drogi danych, od brzegu sieci do centrum ich przetwarzania. Łączy w sobie intuicyjny interfejs wizualny, w pełni zabezpieczony mechanizm uzyskiwania dostępu i uwierzytelniania, a także nieprzerwanie działającą architekturę łańcucha odpowiedzialności (zapewniającego informacje o pochodzeniu danych).

Efektywność i stabilność Apache Hadoop®

Najlepszym sposobem na postawienie pierwszych kroków z technologią Hadoop jest wybór pakietu instalacyjnego, który ułatwia współdziałanie i kompatybilność. Open Data Platform Initiative (ODPi) to stanowiąca wspólne przedsięwzięcie wielu dostawców inicjatywa, która ma za zadanie promować wdrażanie platformy Hadoop w przedsiębiorstwach poprzez współdziałanie narzędzi do analizy wielkich zbiorów danych. Inicjatywa Open Data Platform Initiative upraszcza i standaryzuje ekosystem wielkich zbiorów danych Apache Hadoop za pomocą wspólnej specyfikacji referencyjnej ODPi Core.

Skontaktuj się ze specjalistą

Umów się na indywidualną konsultację ze specjalistą, aby dowiedzieć się więcej o współpracy IBM i Hortonworks oraz sposobach, w jakie możemy pomóc w implementacji narzędzi analitycznych i technik uczenia maszynowego w całym ekosystemie Apache Hadoop.