Przeczytaj, jakie korzyści wnosi wytłumaczalna sztuczna inteligencja do produkcyjnych rozwiązań AI

Czym jest wytłumaczalna sztuczna inteligencja?

Wytłumaczalna sztuczna inteligencja (XAI) to zestaw procesów i metod, dzięki którym ludzie są w stanie zrozumieć wyniki wygenerowane przez algorytmy uczenia maszynowego i im zaufać. Wytłumaczalna sztuczna inteligencja opisuje model AI, oczekiwane wyniki uzyskiwane z jego pomocą i potencjalne odchylenia. Określa dokładność, bezstronność i przejrzystość modelu, który jest używany podczas podejmowania decyzji w oparciu o sztuczną inteligencję, a także uzyskiwane rezultaty. Wytłumaczalna sztuczna inteligencja odgrywa kluczową rolę w organizacjach, które chcą w bezpieczny i sprawny sposób wprowadzać modele AI w środowiskach produkcyjnych. Ponadto możliwość objaśniania zasad działania sztucznej inteligencji ułatwia organizacjom opracowywanie rozwiązań AI w odpowiedzialny sposób.

Ludzie mają trudności ze zrozumieniem i prześledzeniem sposobów, w jakie algorytmy zaawansowanych sztucznych inteligencji generują wyniki. Cały proces obliczeniowy staje się tak zwaną „czarną skrzynką”, która opiera się wszelkim próbom interpretacji. Modele mające postać „czarnych skrzynek” są tworzone bezpośrednio na podstawie danych. Nawet inżynierowie i analitycy danych, którzy tworzą te algorytmy, nie są w stanie zrozumieć ani wyjaśnić, co dokładnie dzieje się wewnątrz nich. Trudności sprawiają także próby wytłumaczenia sposobów, w jakie algorytmy sztucznej inteligencji uzyskują określone wyniki.

Zrozumienie sposobu, w jaki system oparty na sztucznej inteligencji otrzymuje określone wyniki, może przynieść wiele korzyści. Dzięki wytłumaczalności programiści mogą mieć pewność, że system działa w oczekiwany sposób i zgodnie z normami. Jedną z ważnych kwestii może być to, aby osoby, których dotyczyły decyzje podjęte na podstawie wyników wygenerowanych przez AI, miały możliwość ich kwestionowania lub korygowania¹.

Specjalista pracuje przy laptopie

Dlaczego wytłumaczalna sztuczna inteligencja jest istotna?

Dla organizacji kluczowe znaczenie ma pełne zrozumienie procesów, na podstawie których sztuczna inteligencja podejmuje decyzje – warto monitorować modele i dbać o przewidywalność wyników AI, zamiast ślepo im zawierzać. Dzięki wytłumaczalnej sztucznej inteligencji ludzie mogą łatwiej przyswajać i objaśniać algorytmy uczenia maszynowego (machine learning – ML), procesy uczenia głębokiego i zasady działania sieci neuronowych.

Modele uczenia maszynowego można wyobrazić sobie jako „czarne skrzynki”, które opierają się wszelkim próbom interpretacji². Sieci neuronowe używane w procesie uczenia głębokiego są dla człowieka niezwykle trudne do zrozumienia. Odchylenia — dotyczące często rasy, płci, wieku lub lokalizacji — od dawna wnoszą element ryzyka do procesów trenowania modeli AI. Co więcej, wydajność tych modeli może podlegać dryftowi lub pogarszać się, jeżeli dane produkcyjne różnią się od danych treningowych. Dlatego tak ważna dla przedsiębiorstw jest możliwość ciągłego monitorowania modeli i zarządzania nimi – warto promować wytłumaczalność sztucznej inteligencji, mierząc jednocześnie efektywność biznesową związanych z nią algorytmów. Dzięki wytłumaczalnej sztucznej inteligencji można zwiększać zaufanie użytkowników końcowych do rozwiązań AI, kontrolować modele AI i korzystać ze sztucznej inteligencji w produktywny sposób. Obniża ona także poziom ryzyka związanego z utrzymywaniem zgodności z wymogami, kwestiami prawnymi, bezpieczeństwem i reputacją w produkcyjnych środowiskach sztucznej inteligencji.

Wytłumaczalna sztuczna inteligencja jest jednym z kluczowych warunków implementowania odpowiedzialnej sztucznej inteligencji, czyli metodologii wdrażania AI na dużą skalę w rzeczywistych organizacjach przy zachowaniu bezstronności oraz wytłumaczalności i przewidywalności modelu³. Wdrażając w sposób odpowiedzialny rozwiązania sztucznej inteligencji, organizacje muszą stosować w aplikacjach oraz procesach AI właściwe zasady etyczne i budować systemy sztucznej inteligencji oparte na zaufaniu i transparentności.

Osoba spogląda na uczestników spotkania wideo widocznych na ekranie laptopa

Ciągła ocena modelu

Dzięki wytłumaczalnej sztucznej inteligencji przedsiębiorstwa mogą rozwiązywać problemy z modelami i zwiększać ich wydajność, a jednocześnie ułatwiać interesariuszom zrozumienie zachowań modeli AI. Badanie zachowań modeli poprzez śledzenie informacji o statusie wdrażania, bezstronności, jakości i dryfcie ma kluczowe znaczenie w procesie skalowania sztucznej inteligencji. Ciągła ocena modeli daje przedsiębiorstwom możliwość porównywania generowanych prognoz, oceniania związanego z nimi ryzyka i optymalizowania wydajności modeli. Przedstawianie pozytywnych i negatywnych ocen zachowania modeli wraz z danymi, których użyto do przygotowania wyjaśnień, przyspiesza ewaluację modeli. Platforma sztucznej inteligencji może na podstawie danych generować tzw. atrybucje funkcji dotyczące prognoz modeli. Dzięki nim zespoły mogą badać wizualnie zachowanie modeli przy użyciu interaktywnych wykresów i możliwych do wyeksportowania dokumentów.

Specjalista pracuje przy laptopie

Znaczenie wytłumaczalnej sztucznej inteligencji

Na podstawie badań firmy Forrester dotyczących wytłumaczalnej sztucznej inteligencji i monitorowania modeli na platformie IBM Cloud Pak for Data

Korzyści z wytłumaczalnej sztucznej inteligencji

Bezpieczne i sprawne eksploatowanie systemów sztucznej inteligencji

Budowanie zaufania do produkcyjnych systemów sztucznej inteligencji. Szybkie wdrażanie modeli sztucznej inteligencji w środowiskach produkcyjnych. Możliwości interpretowania i wyjaśniania modeli sztucznej inteligencji. Uproszczenie procesu oceniania modelu przy jednoczesnym zwiększeniu transparentności i możliwości śledzenia modelu.

Skróć czas, w jakim sztuczna inteligencja generuje wyniki

Systematycznie monitoruj modele i zarządzaj nimi, aby osiągać optymalne wyniki biznesowe. Stale oceniaj i poprawiaj wydajność modeli. Doskonal proces opracowywania modelu, regularnie go oceniając.

Minimalizuj ryzyko i koszty zarządzania modelami

Dbaj o to, aby modele były wytłumaczalne i transparentne. Zarządzaj wymogami związanymi z przepisami prawa, zgodnością, ryzykiem i innymi kwestiami. Minimalizuj liczbę ręcznych inspekcji i kosztownych błędów. Zmniejszaj ryzyko wystąpienia niezamierzonych odchyleń.

Strategia IBM w zakresie wytłumaczalnej sztucznej inteligencji

Od ponad 100 lat IBM nieprzerwanie opracowuje innowacyjne rozwiązania, które przynoszą korzyści wszystkim, a nie tylko wybranym. To podejście ma również zastosowanie w odniesieniu do sztucznej inteligencji: dążymy do tworzenia i oferowania niezawodnych technologii, które będą wspomagać, a nie zastępować ludzi w podejmowaniu decyzji.

Sztuczna inteligencja może być źródłem wartościowych informacji i wzorców w wielu dziedzinach, jednak szeroka popularyzacja systemów AI zależy w dużym stopniu od tego, czy ludzie będą w stanie zaufać generowanym przez nie wynikom. Aby zaufać technologii, trzeba zrozumieć, jak ona działa, a także uwierzyć, że jest bezpieczna i niezawodna. Właśnie dlatego wytłumaczalna sztuczna inteligencja ma kluczowe znaczenie. Strategia IBM w zakresie wytłumaczalnej sztucznej inteligencji zakłada, że sztuczna inteligencja ma być niezawodna i bezstronna, jej działanie można wyjaśniać i że z całą pewnością nie powoduje ona żadnych szkód.

Zajmujący się tworzeniem innowacyjnych rozwiązań zespół IBM Research opracowuje różne strategie, których celem jest osiągnięcie bezstronności, odporności, wytłumaczalności, odpowiedzialności i zgodności z wyznawanymi wartościami. Ważnym pytaniem jest także to, jak wdrożyć te cechy w całym cyklu życia systemu sztucznej inteligencji. Opracowane przez IBM Research środowiska i zestawy narzędzi wytłumaczalnej sztucznej inteligencji są zintegrowane z platformą IBM Cloud Pak for Data, dzięki czemu przedsiębiorstwa mogą korzystać z naszej najnowszej technologii AI w kontrolowany, bezpieczny i skalowalny sposób.

Osoba spogląda na ekran telefonu komórkowego, stojąc przy oknie biura

Pięć zagadnień związanych z wytłumaczalną sztuczną inteligencją

Pięć zagadnień związanych z wytłumaczalną sztuczną inteligencją

Aby uzyskać pożądane wyniki, stosując wytłumaczalną sztuczną inteligencję, należy wziąć pod uwagę następujące kwestie.

Bezstronność i unikanie odchyleń: zarządzaj bezstronnością i monitoruj ją. Skanuj wdrożenie pod kątem potencjalnych odchyleń. 

Eliminowanie dryftu modelu: analizuj model i rekomenduj działania w oparciu o najbardziej logiczne wyniki. Ostrzegaj, gdy wyniki uzyskiwane na podstawie modeli odbiegają od oczekiwań.

Zarządzanie ryzykiem związanym z modelem: oceniaj i ograniczaj ryzyko, jakie niesie ze sobą model. Otrzymuj powiadomienia o niewłaściwym funkcjonowaniu modelu. Dowiedz się, co zaszło w sytuacji, gdy odchyleń nie można wyeliminować.

Automatyzacja cykli życia: buduj i uruchamiaj modele oraz zarządzaj nimi w ramach zintegrowanych usług danych i sztucznej inteligencji. Ujednolicaj narzędzia i procesy stosowane na platformie do monitorowania modeli i udostępniania wyników. Wyjaśniaj zależności między modelami uczenia maszynowego.

Gotowość do obsługi środowisk wielochmurowych: wdrażaj projekty AI w chmurach hybrydowych, w tym w chmurach publicznych, prywatnych i lokalnie. Zwiększaj poziom zaufania i bezpieczeństwa z pomocą wytłumaczalnej sztucznej inteligencji.

Zbliżenie na nowoczesny, przeszklony budynek

Usprawnij wytłumaczalność sztucznej inteligencji, stosując IBM Cloud Pak for Data

Platforma IBM Cloud Pak® for Data zawiera usługi danych i sztucznej inteligencji dostarczane w formie ujednoliconego środowiska, dzięki czemu przedsiębiorstwa mogą oceniać wpływ danych i modeli oraz występujące między nimi relacje, tak aby udoskonalać wytłumaczalności sztucznej inteligencji. Ponadto platforma ułatwia przedsiębiorstwom zdobywanie informacji o wdrożeniach, bezstronności i jakości modeli oraz o związanym z nimi ryzyku. Dzięki temu rozwiązaniu łatwiej objaśnić transakcje sztucznej inteligencji, modele jakościowe, modele obrazowe i modele występujące w nieustrukturyzowanej formie tekstowej przy użyciu narzędzi takich jak objaśnienia kontrastowe i LIME (Local Interpretable Model-Agnostic Explanations). Właściwe działanie produkcyjnych rozwiązań sztucznej inteligencji zależy w dużym stopniu od stosowania automatyzacji cyklu życia AI w nowoczesnych systemach informatycznych, ponieważ proces ten zapewnia wytłumaczalność i transparentność sztucznej inteligencji.

Dowiedz się więcej o wytłumaczalnej sztucznej inteligencji

Jak działa wytłumaczalna sztuczna inteligencja?

Dzięki wytłumaczalnej sztucznej inteligencji, a także poddającemu się interpretacji uczeniu maszynowemu, organizacje mają dostęp do procesu decyzyjnego leżącego u podstaw technologii sztucznej inteligencji i mogą wprowadzać w nim zmiany. Wytłumaczalna sztuczna inteligencja polepsza odczucia płynące z użytkowania produktów lub usług, ponieważ dzięki niej użytkownicy końcowi mają pewność, że sztuczna inteligencja podejmuje właściwe decyzje. Kiedy systemy sztucznej inteligencji są na tyle pewne, że można ufać podejmowanym przez nie decyzjom? Jak systemy sztucznej inteligencji mogą korygować pojawiające się błędy⁴?

Mimo że sztuczna inteligencja staje się coraz bardziej zaawansowana, procesy uczenia maszynowego muszą być nadal zrozumiałe i możliwe do kontrolowania, co gwarantuje poprawność wyników uzyskiwanych na podstawie modelu sztucznej inteligencji. Przyjrzyjmy się różnicom między sztuczną inteligencją (AI) a wytłumaczalną sztuczną inteligencją (XAI), metodom i technikom używanym do przekształcania AI w XAI oraz pojęciom interpretowania i objaśniania procesów sztucznej inteligencji.

Porównanie AI i XAI

Na czym dokładnie polega różnica między „zwykłą” sztuczną inteligencją a wytłumaczalną sztuczną inteligencją? W przypadku XAI stosowane są techniki i metody, dzięki którym można śledzić i wyjaśniać wszystkie decyzje podejmowane w procesie uczenia maszynowego. Natomiast AI uzyskuje wynik przy użyciu algorytmu uczenia maszynowego, jednak twórcy systemów sztucznej inteligencji często nie do końca rozumieją, jak to się dzieje. Utrudnia to weryfikowanie dokładności wyników oraz obniża poziom kontroli, wiarygodności i sprawdzalności.

Techniki stosowane w dziedzinie wytłumaczalnej sztucznej inteligencji

Techniki XAI opierają się na trzech głównych metodach. Dokładność prognoz i możliwości śledzenia spełniają wymagania technologiczne, natomiast możliwość zrozumienia procesu decyzyjnego zaspokaja potrzeby człowieka. Wytłumaczalna sztuczna inteligencja, a w szczególności wytłumaczalne uczenie maszynowe, będzie niezwykle ważne w przyszłości, gdy żołnierze będą musieli zrozumieć, zaufać i efektywnie zarządzać swoimi mechanicznymi, wyposażonymi w sztuczną inteligencję towarzyszami⁵.

Dokładność prognoz
Dokładność ma kluczowe znaczenie dla funkcjonowania systemów sztucznej inteligencji na co dzień. Dokładność prognoz można ustalić, uruchamiając symulacje i porównując dane wyjściowe XAI z wynikami w zestawie danych treningowych. Najpopularniejszą techniką stosowaną w tym celu jest metoda Local Interpretable Model-Agnostic Explanations (LIME), która objaśnia prognozowane klasyfikatory uzyskane przez algorytm uczenia maszynowego.

Możliwości śledzenia
Możliwości śledzenia to kolejne kluczowe rozwiązanie stosowane w przypadku XAI. Technika ta jest implementowana poprzez ograniczenie sposobów, w jakie mogą być podejmowane decyzje, oraz zawężanie zakresu reguł i funkcji uczenia maszynowego. Przykładem wdrożenia możliwości śledzenia XAI jest DeepLIFT (Deep Learning Important FeaTures). System ten porównuje każdy aktywujący się neuron z jego neuronem referencyjnym, wyświetla dające się śledzić połączenia między aktywnymi neuronami, a nawet informuje o występujących między nimi zależnościach.

Zrozumienie procesu decyzyjnego
Jest to czynnik ludzki. Wiele osób nie ufa sztucznej inteligencji, a żeby można było wydajnie z nią pracować, musi się to zmienić. Cel ten można osiągnąć poprzez edukację zespołów pracujących ze sztuczną inteligencją. Ich członkowie powinni rozumieć jak i dlaczego AI podejmuje decyzje.

Wytłumaczalność a interpretowalność sztucznej inteligencji

Interpretowalność informuje o tym, w jakim stopniu obserwator może zrozumieć przyczynę podjętej decyzji. To wskaźnik, dzięki któremu wiemy, w jakim stopniu ludzie są w stanie z powodzeniem przewidywać wyniki uzyskiwane przez sztuczną inteligencję. Wytłumaczalność idzie o krok dalej i objaśnia, w jaki sposób sztuczna inteligencja uzyskała wynik.

Jak wytłumaczalna sztuczna inteligencja ma się do odpowiedzialnej sztucznej inteligencji?

Wytłumaczalna i odpowiedzialna sztuczna inteligencja mają podobne cele, które są jednak osiągane na różne sposoby. Oto główne różnice między wytłumaczalną a odpowiedzialną sztuczną inteligencją:

  • Wytłumaczalna sztuczna inteligencja sprawdza wyniki AI po ich obliczeniu.
  • Odpowiedzialna sztuczna inteligencja śledzi system AI na etapach planowania, starając się uzyskać odpowiedzialny algorytm jeszcze przed obliczeniem wyników.
  • Wytłumaczalne i odpowiedzialne sztuczne inteligencje mogą ze sobą współpracować. Pozwala to na uzyskanie doskonalszego systemu AI.

Aby dowiedzieć się więcej na temat wytłumaczalnej sztucznej inteligencji, zarejestruj się w celu uzyskania IBMid i już dziś rozpocznij okres próbny produktu IBM Cloud Pak for Data.

Jak zaimplementować wytłumaczalną sztuczną inteligencję

Poniższe zasoby zawierają informacje o sposobach implementowania wytłumaczalnej sztucznej inteligencji.

Seminarium online:
Jak zarządzać modelami i je monitorować
Dowiedz się, co zrobić, gdy modele nie działają.
Obejrzyj webinarium (odsyłacz prowadzi poza serwis IBM) →
Materiały edukacyjne:
Zarządzaj sztuczną inteligencją w oparciu o zaufanie
Dowiedz się, jak śledzić i oceniać wyniki uzyskiwane przez sztuczną inteligencję w całym cyklu jej życia, jednocześnie dostosowując ją do zmieniających się potrzeb biznesowych.
Zobacz kurs →

Ćwiczenie praktyczne:
Monitorowanie modeli uczenia maszynowego
Zapoznaj się ze szczegółowymi procesami oceniania modeli pod kątem bezstronności, dokładności i wytłumaczalności.
 
Zobacz warsztaty →

Przykłady wdrożeń wytłumaczalnej sztucznej inteligencji

Służba zdrowia

Zbliżenie na trzech operujących chirurgów

Przyspiesz diagnostykę, analizy obrazu, optymalizację zasobów i diagnozy medyczne. Zwiększaj transparentność i możliwości śledzenia w procesie decyzyjnym towarzyszącym opiece nad pacjentami. Upraszczaj proces dopuszczania do obrotu produktów farmaceutycznych, korzystając z wytłumaczalnej sztucznej inteligencji.

Usługi finansowe

Osoba trzymająca kartę kredytową podczas pracy przy laptopie

Dbaj o zadowolenie klientów, wdrażając transparentne procesy przyznawania pożyczek i kredytów. Przyspiesz oceny związane z ryzykiem kredytowym, zarządzaniem majątkiem i zagrożeniami przestępczością finansową. Przyspiesz rozpatrywanie potencjalnych skarg i zgłoszeń problemów. Sprawniej ustalaj ceny, twórz rekomendacje produktów i oferuj usługi finansowe.

Sądownictwo karne

Policjant stoi przed obszarem otoczonym taśmą wyznaczającą miejsce przestępstwa

Optymalizacja procesów prognostycznych i związanych z oceną ryzyka. Przyspiesz rozpatrywanie spraw, stosując wytłumaczalną sztuczną inteligencję do analizowania DNA, analizowania poziomu zaludnienia więzień i prognozowania przestępstw. Wykrywaj potencjalne odchylenia w danych i algorytmach treningowych.

Przypisy

¹ „Explainable AI”, The Royal Society, 28 listopada 2019 (odsyłacz prowadzi poza serwis IBM).
² „Explainable Artificial Intelligence”, Jaime Zornoza, 15 kwietnia 2020 (odsyłacz prowadzi poza serwis IBM).
³ „Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI”, ScienceDirect, lipiec 2020 (odsyłacz prowadzi poza serwis IBM).
⁴ „Understanding Explainable AI”, Ron Schmelzer, autor współpracujący z Forbes, 23 lipca 2019 (odsyłacz prowadzi poza serwis IBM).
⁵ „Explainable Artificial Intelligence (XAI)”, Dr. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA) (odsyłacz prowadzi poza serwis IBM).