Przyspiesz analizy danych, aby podejmować trafne decyzje w oparciu o analizy predykcyjne.

Definicja

O co chodzi w analizach predykcyjnych?

Analityka predykcyjna to odmiana zaawansowanej analityki, która przewiduje przyszłe wyniki w oparciu o dane historyczne połączone z modelowaniem statystycznym, technikami eksploracji danych i uczeniem maszynowym. Firmy wykorzystują analizy predykcyjne do znajdowania wzorców w danych w celu wykrywania zagrożeń i rozpoznawania pojawiających się możliwości.

Analiza predykcyjna często jest kojarzona z wielkimi zbiorami danych i analityką danych. W dzisiejszych czasach firmy korzystają z olbrzymiej ilości danych, które znajdują się w bazach danych transakcyjnych, plikach dzienników urządzeń, obrazach, wideo, czujnikach i innych źródłach danych. Aby uzyskać spostrzeżenia w oparciu o te dane, analitycy wykorzystują algorytmy uczenia głębokiego i uczenia maszynowego, aby identyfikować wzorce i przewidywać przyszłe zdarzenia. Zalicza się do nich regresję nieliniową, sieci neuronowe, algorytmy Support Vector Machine i drzewa decyzyjne. Wyniki analiz predykcyjnych mogą być później wykorzystane w ramach analizy preskryptywnej do podejmowania działań opartych na analizach predykcyjnych.

IBM oferuje zestaw narzędzi programistycznych, które pomagają w łatwiejszym i szybszym budowaniu skalowalnych modeli predykcyjnych. Narzędzia te można również uruchomić na platformie IBM Cloud Pak® for Data — kontenerowej platformie danych i sztucznej inteligencji, która umożliwia budowanie i uruchamianie modeli w dowolnym środowisku chmurowym lub lokalnym.

Korzyści

Elastyczna platforma do budowania modeli predykcyjnych

Skalowalność

Automatyzuj zadania związane z analityką wielkich zbiorów danych i inżynierią danych. Płynnie trenuj, testuj i wdrażaj modele na potrzeby wielu aplikacji korporacyjnych. Rozszerzaj wspólne funkcje analityki wielkich zbiorów danych na hybrydowe środowiska wielochmurowe.

Szybkość

Wykorzystaj gotowe aplikacje i wstępnie wytrenowane modele. Ułatw współpracę analitykom danych i zespołom biznesowym oraz usprawnij budowanie modeli dzięki najnowocześniejszemu oprogramowaniu IBM i Open Source.

Prostota

Wykorzystaj centralną platformę do zarządzania całym cyklem życia analityki danych. Standaryzuj procesy projektowania i wdrażania. Buduj jednolite struktury zabezpieczania danych i nadzoru nad nimi.

Narzędzia IBM do analiz predykcyjnych

Platforma analityki danych

IBM Watson® Studio pomaga praktycznie wykorzystać sztuczną inteligencję, dostarczając narzędzia do przygotowywania danych i budowania modeli w dowolnym miejscu za pomocą kodu Open Source lub modelowania wizualnego.

Oprogramowanie do analiz statystycznych

IBM® SPSS® Statistics zostało zaprojektowane z myślą o rozwiązywaniu problemów biznesowych i badawczych z wykorzystaniem analizy ad hoc, testowania hipotez, analizy geoprzestrzennej i analizy predykcyjnej.

Narzędzie do modelowania wizualnego

Rozwiązanie IBM SPSS Modeler może ułatwić korzystanie z zasobów danych i nowoczesnych aplikacji dzięki kompletnym algorytmom i modelom, które są gotowe do natychmiastowego użycia.

Rozwiązania do optymalizacji decyzji

IBM Decision Optimization optymalizuje wyniki, oferując możliwości analizy preskryptywnej, która uzupełnia spostrzeżenia predykcyjne z modeli uczenia maszynowego.

Przykłady analizy predykcyjnej

Poznaj przykłady zastosowania w różnych branżach

Bankowość

Usługi finansowe wykorzystują uczenie maszynowe i narzędzia ilościowe do przewidywania ryzyka kredytowego i wykrywania oszustw.

Służba zdrowia

Analizy predykcyjne w sektorze służby zdrowia są wykorzystywane do monitorowania pacjentów i zarządzania opieką nad przewlekle chorymi pacjentami.

Zasoby ludzkie (HR)

Zespoły HR wykorzystują analizy predykcyjne do wyszukiwania i zatrudniania pracowników, określania rynków pracy i przewidywania poziomu wydajności pracownika.

Marketing i sprzedaż

Analizy predykcyjne mogą być wykorzystywane do przygotowywania kampanii marketingowych w całym cyklu życia klienta oraz opracowywania strategii sprzedaży wiązanej.

Handel detaliczny

Sprzedawcy detaliczni wykorzystują analizy predykcyjne do wyszukiwania rekomendowanych produktów, prognozowania sprzedaży, analizowania rynków i zarządzania zapasami sezonowymi.

Łańcuch dostaw

Przedsiębiorstwa wykorzystują analizy predykcyjne do bardziej efektywnego zarządzania stanami magazynowymi, co pomaga zaspokoić popyt przy jednoczesnej minimalizacji poziomu zapasów.

Więcej o w analizach predykcyjnych

Rodzaje modeli i nie tylko

Rodzaje modelowania predykcyjnego

Zespoły analityków danych wykorzystują trzy rodzaje modeli predykcyjnych: modelowanie predykcyjne, modelowanie opisowe i modelowanie decyzyjne.

Modelowanie predykcyjne
Modelowanie predykcyjne wykorzystuje statystykę do przewidywania wyników. Celem jest ocena prawdopodobieństwa, że podobna jednostka w innej próbie będzie wykazywać podobną wydajność. Modelowanie predykcyjne może być wykorzystywane na przykład do przewidywania zachowań klienta oraz związanego z nim ryzyka kredytowego.

Modelowanie opisowe
Modelowanie opisowe określa zależności w obrębie danego zbioru danych i jest stosowane głównie do podziału klientów lub potencjalnych klientów na grupy w celu segmentacji. Ten rodzaj modelowania skupia się na identyfikacji różnych zależności pomiędzy klientami i produktami, takich jak preferencje produktowe czy etap życia.

Modelowanie decyzyjne
Modelowanie decyzyjne opisuje relacje pomiędzy elementami decyzji, takimi jak dane, decyzja i prognozowane wyniki, w celu przewidywania wyników. Ten rodzaj modelowania może być wykorzystany do maksymalizacji niektórych wyników przy jednoczesnym minimalizowaniu innych.

Popularne modele analiz predykcyjnych

Modele analiz predykcyjnych są przeznaczone do oceny danych historycznych, wykrywania wzorców, obserwowania trendów i wykorzystywania tych informacji do przewidywania przyszłych trendów. Popularne modele analiz predykcyjnych obejmują klasyfikację, grupowanie, prognozy, wartości odstające i serie czasowe. Wszystkie z nich zostały szczegółowo opisane poniżej.

Modele klasyfikacyjne
Modele klasyfikacyjne są zaliczane do nadzorowanych modeli uczenia maszynowego. Umieszczają one dane w kategoriach na podstawie wniosków z danych historycznych. Modele takie są powszechnie używane w przypadku odpowiadania na pytania z binarnymi wynikami, takimi jak odpowiedzi „tak” lub „nie”, czy też „prawda” i „fałsz”. Do rodzajów modeli klasyfikacyjnych zalicza się regresję logistyczną, drzewa decyzyjne, lasy losowe, sieci neuronowe i naiwny klasyfikator bayesowski.

Modele grupowania
Modele grupowania są zaliczane do uczenia nienadzorowanego. Sortują one dane na grupy w oparciu o podobne atrybuty. Na przykład serwis handlu elektronicznego może użyć takiego modelu do podzielenia klientów na podobne grupy w oparciu o wspólne cechy i opracować strategie marketingowe dla każdej z tych grup. Powszechnie stosowane algorytmy grupowania obejmują grupowanie k-średnich, grupowanie średniego przesunięcia, grupowanie przestrzenne aplikacji z szumem oparte na gęstościach (DBSCAN), grupowanie z maksymalizacją oczekiwań (EM) przy użyciu modeli mieszaniny Gaussa (GMM) oraz grupowanie hierarchiczne.

Modele prognostyczne
Modele prognostyczne wykorzystują predykcję wartości metrycznych, szacując wartość liczbową dla nowych danych na podstawie trendów z danych historycznych. Na przykład call center może użyć takiego modelu do prognozowania ilości połączeń, które otrzyma w ciągu godziny. Przykładami modeli prognostycznych są modele serii czasowych i modele ekonometryczne.

Modele wartości odstających
Modele wartości odstających służą do analizy anomalii w zbiorze danych. Na przykład oznaczenie anomalii na listach transakcji pomaga firmom ubezpieczeniowym wykrywać oszustwa.Do popularnych metod wykrywania wartości odstających zalicza się analizę wartości skrajnych, modelowanie probabilistyczne i statystyczne, regresję liniową, modelowanie oparte na bliskości i modelowanie teorii informacji.

Modele serii czasowych
Modele serii czasowych wykorzystują sekwencję punktów danych, używając czasu jako parametru wejściowego. Mogą one brać pod uwagę dane z ostatniego roku, obliczać metrykę liczbową i używać jej do przewidywania danych z trzech do sześciu tygodni. Model serii czasowej może być na przykład wykorzystany przez szpital do przewidywania pojemności izby przyjęć na podstawie liczby pacjentów, którzy pojawili się w ciągu ostatnich sześciu tygodni.

Proces analizy predykcyjnej

Analiza predykcyjna rozpoczyna się od określenia celu biznesowego, np. zmniejszenia ilości odpadów, oszczędności czasu lub obniżenia kosztów. Proces ten wykorzystuje modele do przetwarzania ogromnych zbiorów danych, aby wygenerować wyniki wspierające ten cel.

Przykładowo proces analizy predykcyjnej dla przewidywania przychodów ze sprzedaży przebiega według następujących podstawowych kroków.

  1. Import danych z różnych źródeł. Źródła danych w tym przypadku obejmują sprzedaż produktów, budżety marketingowe i krajowy PKB.
  2. Oczyszczenie danych poprzez usunięcie wartości odstających (np. skoków danych, brakujących danych) oraz ich agregację. Do agregacji różnych typów danych, takich jak sprzedaż produktów, budżety marketingowe i krajowy PKB, może być użyta pojedyncza tabela.
  3. Opracowanie modelu predykcyjnego w sposób zapewniający odpowiednie dopasowanie. Na przykład do budowy i treningu modelu predykcyjnego dla prognozowania przychodów mogą być używane sieci neuronowe.
  4. Wdrożenie modelu w środowisku produkcyjnym, gdzie może być on dostępny za pośrednictwem innych aplikacji.

Wdrożenie programu analiz predykcyjnych

Analizy predykcyjne stanowią kluczowy element strategii wykorzystania analiz — klasyczne analizy statystyczne łączą się w nich z nowym światem sztucznej inteligencji (AI). Obecnie intuicyjne w obsłudze narzędzia, nowe techniki predykcyjne i modele wdrażania chmur hybrydowych przenikają się w bezprecedensowy w historii sposób. Dzięki temu analizy i modele predykcyjne jeszcze nigdy nie znajdowały się w tak bliskim zasięgu. Po raz pierwszy organizacje każdej wielkości mogą dysponować narzędziami umożliwiającymi wbudowanie mechanizmów analizy predykcyjnej w procesy biznesowe i wykorzystanie sztucznej inteligencji na dużą skalę.

Ewolucja w kierunku korporacyjnego programu analityki wielkich zbiorów danych może przynieść znaczącą przewagę konkurencyjną. Typowe etapy takiej ewolucji to:

Faza 1: Pierwsze kroki

Kiedy przedsiębiorstwo decyduje się zbudować swoje mechanizmy analityki wielkich zbiorów danych, zwykle zaczyna od projektów ad hoc, takich jak tworzenie modeli w celu odpowiedzi na konkretne pytania lub wsparcia projektów badawczych. Dzięki rozwiązaniom takim jak IBM Watson Studio Desktop analitycy danych mogą pracować przez 24 godziny na dobę na własnych komputerach lub laptopach i w razie potrzeby synchronizować się z większym zespołem.

Faza 2: Rozszerzenie zastosowania

W miarę coraz powszechniejszego stosowania analityki wielkich zbiorów danych w całym przedsiębiorstwie różne działy wdrażają swoje modele, łączą je ze źródłami danych i wprowadzają do aplikacji produkcyjnych. IBM Watson Studio i IBM Watson Machine Learning ułatwiają zespołom analitycznym i IT współpracę w tym cyklu życia.

Faza 3: Wdrożenie w skali przedsiębiorstwa

Po wbudowaniu mechanizmów sztucznej inteligencji w procesy o newralgicznym znaczeniu organizacje muszą stworzyć centralną platformę do zarządzania modelami i danymi oraz do ich nadzorowania. IBM Cloud Pak for Data może zapewnić infrastrukturę i narzędzia niezbędne do opracowania kompleksowej, wielochmurowej platformy, która będzie działać jako pojedynczy punkt kontroli.

Trochę praktyki

Wzorce kodu i kursy

Twórz i wdrażaj modele oceniania, aby zapobiegać atakom serca

Przewiduj awarie sprzętu za pomocą danych z czujników internetu rzeczy

Analizuj otwarte zestawy danych medycznych w celu pozyskiwania informacji

Kształtuj i udoskonalaj dane surowe na potrzeby analiz predykcyjnych

Zacznij od razu

Rozpocznij swoją podróż ku analityce predykcyjnej