#IBMPolskaJutra

Czy algorytmy boją się piątku trzynastego?

Share this post:

Każdy z nas, gdzieś w głębi duszy, kieruje się wiekowymi przesądami i uprzedzeniami. Niektóre z nich traktowane są jako element tradycji, jeszcze inne są integralną częścią naszego dziedzictwa kulturowego. Nasze zachowania oraz reakcje na pewne sytuacje są tak głęboko zakorzenione, że traktujemy je jako normalne. I choć takie czynności, jak unikanie czarnych kotów na ulicy, sypanie solą za siebie i zakrycie stłuczonych luster są traktowane jak drobne dziwactwa, to są w dużej mierze akceptowane przez nasze otoczenie.

Czemu o tym wspominam na blogu technologicznym, traktującym o innowacjach? Przecież komputery nie mają duszy, a zatem przenoszenie kodów kulturowych i zachowań społecznych na grunt algorytmów jest niemożliwe. Ale czy na pewno? Sztuczna inteligencja, zaskakująca nas na co dzień swoimi zdolnościami poznawczymi, jest ciągle oparta o algorytmy oraz dane, których zródłem jest człowiek. No właśnie – człowiek, którego przesądy o nieuchronności nadejścia nieszczęścia w piątek trzynastego są jedynie czubkiem góry lodowej, pod którą kryją się dużo mroczniejsze przekonania.

Nie udawajmy, że rasizm, seksizm, ksenofobia i zachowania jawnie dyskryminacyjne z błahych powodów są marginalnymi zjawiskami. Wręcz przeciwnie, takie zachowania są obecne we wszystkich kulturach i można na nie natrafić w każdym zakątku świata. I te właśnie zachowania, poprzez dane spreparowane przez ludzi i konsumowane przez algorytmy, wybierają za nas kandydatów do pracy, analizują podróżujących na granicach państwowych lub decydują o przyznaniu nam kredytu bankowego. W konsekwencji, istnieje ryzyko, że całe grupy ludzi mogą zostać wykluczone z normalnego życia społecznego ze względu na algorytmy sztucznej inteligencji, będące programowo negatywnie do nich nastawione.

Niemożliwe? Wręcz przeciwnie, a przypadków z roku na rok mnoży się coraz więcej. W maju 2016 w Stanach Zjednoczonych organizacja społeczna ProPublica opublikowała analizę, z której wynikało, że system COMPAS, używany do oceny prawdopodobieństwa ponownego popełnienia przestępstwa przez więzniów, dużo częściej w stosunku do realnych statystyk wskazuje afroamerykanów jako osoby zdolne do zostania recydywistami [1]. Microsoft zaliczył wpadkę przy okazji uruchomienia bota o uroczym imieniu Tay w serwisie Twitter, która pod wpływem interakcji z otoczeniem w przeciągu 24 godzin zamieniła się w nawołującą do czystek etnicznych rasistkę [2]. Również Google został posądzony o seksizm, gdy analiza wykonana w 2015 roku wykazała, że na hasło “CEO” w amerykanskiej wersji wyszukiwarki, wyniki pokazywały jedynie 11 procent osób płci żeńskiej, gdzie faktycznie procent kobiet pełniących tę rolę w USA jest dużo wyższy.

Dlaczego tak się dzieje, że nasze przekonania i przesądy przenoszą się na grunt mechanizmów sztucznej inteligencji? Bardzo często wynika to nie tyle z naszych uprzedzeń, a z jakości danych, z których algorytmy korzystają. Przykładem jest proces rekrutacji. Język, za pomocą którego algorytm dokonuje analizy tekstu CV, może nie posiadać pewnych terminów zawodowych w wersji żeńskiej. To powoduje, że algorytmy w sposób naturalny wybierają osoby, których życiorys zawiera specjalistyczne terminy napisane w języku, który potrafią interpretować. Innym problemem jest brak testów, czego rezultatem były wpadki na wzór tej z botem Tay Microsoftu. Innym elementem, który ma wpływ na działanie algorytmów jest pochodzenie ich twórców – mówiąc wprost, algorytmy pisane przez programistę w kraju z jednego kręgu kulturowo-cywilizacyjnego niekoniecznie muszą podejmować właściwe decyzje w stosunku do społeczeństwa znajdującego się po drugiej stronie globu.

Czy to oznacza, że kwestią czasu jest wykluczenie nas z jakiegoś istotnego społecznie procesu tylko ze względu na nasze charakterystyki wyglądu lub zachowania? Niekoniecznie. Wiele firm i uniwersytetów zidentyfikowało już wyżej zdefiniowany problem i podejmują pierwsze konkretne kroki w celu wytworzenia mechanizmów sztucznej inteligencji odpornej na subiektywizm ich twórców. W ramach strategii tzw. 5 in 5, IBM jako priorytet dla rozwoju w nadchodzących latach przyjął zastosowanie etyki przy budowie algorytmów oferowanych swoim klientom. W tym celu, jednostka IBM Watson AI Labs wraz z Massachusetts Institute of Technology wspólnie pracują nad pryncypiami, które pozwalają algorytmom sztucznej inteligencji na podejmowanie decyzji w oparciu o pewne ogólnie akceptowane wartości [4]. Jest zatem szansa, że w niedalekiej przyszłości, gdy poprosimy naszego cyfrowego asystenta o rezerwację biletów lotniczych z datą wylotu w piątek trzynastego, nasza prośba zostanie spełniona bez mrugnięcia światłowodem.

Dowiedz się więcej na Think Warsaw: https://ibm.biz/BdzhLj

Przypisy:

[1] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[2] https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

[3] https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/

[4] https://www.research.ibm.com/5-in-5/ai-and-bias/

Blockchain Technical Leader

More #IBMPolskaJutra stories
By Piotr Łaszczewski on 30/06/2022

Gala Partnerów IBM

22 czerwca 2022 r. odbyła się Gala Partnerów IBM, podczas której mieliśmy przyjemność gościć naszych Partnerów Handlowych. Spotkanie otworzyliśmy wspólnie z Marcinem Gajdzińskim – Dyrektorem Generalnym IBM Polska i Kraje Bałtyckie. Następnie David Stokes – IBM Ecosystem General Manager for Europe and MEA przedstawił najnowszą strategię IBM. Podczas swojego wystąpienia podkreślał, że współpraca IBM z Partnerami […]

Continue reading

By ibmblogs on 13/06/2022

Współpraca na rzecz cyberbezpieczeństwa

Mając na uwadze rosnące zapotrzebowanie na wysokiej jakości kształcenie w zakresie cyberbezpieczeństwa nawiązaliśmy współpracę z ECSC – Eksperckim Centrum Szkolenia Cyberbezpieczeństwa. Celem wspólnych działań jest podnoszenie świadomości zagrożeń, metod ataków w cyberprzestrzeni oraz prawnych, organizacyjnych, a także technicznych umiejętności przeciwdziałania zagrożeniom w systemach i sieciach teleinformatycznych. Jak wynika z najnowszego raportu IBM Security X-Force, “Threat […]

Continue reading

By ibmblogs on 24/05/2022

Masz pomysł na innowacyjny biznes? Przetestuj go w bezpłatnym środowisku Sandbox Blockchain 2.0.

Według raportu PwC „Time for Trust” na temat rynku blockchain, technologia ta staje się szczególnie cenna dla rozwoju firm na świecie. Aż 61 proc. przedsiębiorstw umieszcza inwestycje związane z transformacją cyfrową na szczycie swoich priorytetów. Potencjał ten dostrzega też koalicja partnerów, która z myślą o innowacyjnych firmach, startupach czy przedsiębiorstwach tworzących oprogramowanie, rozwija program pierwszej […]

Continue reading