#IBMPolskaJutra

Czy algorytmy boją się piątku trzynastego?

Share this post:

Każdy z nas, gdzieś w głębi duszy, kieruje się wiekowymi przesądami i uprzedzeniami. Niektóre z nich traktowane są jako element tradycji, jeszcze inne są integralną częścią naszego dziedzictwa kulturowego. Nasze zachowania oraz reakcje na pewne sytuacje są tak głęboko zakorzenione, że traktujemy je jako normalne. I choć takie czynności, jak unikanie czarnych kotów na ulicy, sypanie solą za siebie i zakrycie stłuczonych luster są traktowane jak drobne dziwactwa, to są w dużej mierze akceptowane przez nasze otoczenie.

Czemu o tym wspominam na blogu technologicznym, traktującym o innowacjach? Przecież komputery nie mają duszy, a zatem przenoszenie kodów kulturowych i zachowań społecznych na grunt algorytmów jest niemożliwe. Ale czy na pewno? Sztuczna inteligencja, zaskakująca nas na co dzień swoimi zdolnościami poznawczymi, jest ciągle oparta o algorytmy oraz dane, których zródłem jest człowiek. No właśnie – człowiek, którego przesądy o nieuchronności nadejścia nieszczęścia w piątek trzynastego są jedynie czubkiem góry lodowej, pod którą kryją się dużo mroczniejsze przekonania.

Nie udawajmy, że rasizm, seksizm, ksenofobia i zachowania jawnie dyskryminacyjne z błahych powodów są marginalnymi zjawiskami. Wręcz przeciwnie, takie zachowania są obecne we wszystkich kulturach i można na nie natrafić w każdym zakątku świata. I te właśnie zachowania, poprzez dane spreparowane przez ludzi i konsumowane przez algorytmy, wybierają za nas kandydatów do pracy, analizują podróżujących na granicach państwowych lub decydują o przyznaniu nam kredytu bankowego. W konsekwencji, istnieje ryzyko, że całe grupy ludzi mogą zostać wykluczone z normalnego życia społecznego ze względu na algorytmy sztucznej inteligencji, będące programowo negatywnie do nich nastawione.

Niemożliwe? Wręcz przeciwnie, a przypadków z roku na rok mnoży się coraz więcej. W maju 2016 w Stanach Zjednoczonych organizacja społeczna ProPublica opublikowała analizę, z której wynikało, że system COMPAS, używany do oceny prawdopodobieństwa ponownego popełnienia przestępstwa przez więzniów, dużo częściej w stosunku do realnych statystyk wskazuje afroamerykanów jako osoby zdolne do zostania recydywistami [1]. Microsoft zaliczył wpadkę przy okazji uruchomienia bota o uroczym imieniu Tay w serwisie Twitter, która pod wpływem interakcji z otoczeniem w przeciągu 24 godzin zamieniła się w nawołującą do czystek etnicznych rasistkę [2]. Również Google został posądzony o seksizm, gdy analiza wykonana w 2015 roku wykazała, że na hasło “CEO” w amerykanskiej wersji wyszukiwarki, wyniki pokazywały jedynie 11 procent osób płci żeńskiej, gdzie faktycznie procent kobiet pełniących tę rolę w USA jest dużo wyższy.

Dlaczego tak się dzieje, że nasze przekonania i przesądy przenoszą się na grunt mechanizmów sztucznej inteligencji? Bardzo często wynika to nie tyle z naszych uprzedzeń, a z jakości danych, z których algorytmy korzystają. Przykładem jest proces rekrutacji. Język, za pomocą którego algorytm dokonuje analizy tekstu CV, może nie posiadać pewnych terminów zawodowych w wersji żeńskiej. To powoduje, że algorytmy w sposób naturalny wybierają osoby, których życiorys zawiera specjalistyczne terminy napisane w języku, który potrafią interpretować. Innym problemem jest brak testów, czego rezultatem były wpadki na wzór tej z botem Tay Microsoftu. Innym elementem, który ma wpływ na działanie algorytmów jest pochodzenie ich twórców – mówiąc wprost, algorytmy pisane przez programistę w kraju z jednego kręgu kulturowo-cywilizacyjnego niekoniecznie muszą podejmować właściwe decyzje w stosunku do społeczeństwa znajdującego się po drugiej stronie globu.

Czy to oznacza, że kwestią czasu jest wykluczenie nas z jakiegoś istotnego społecznie procesu tylko ze względu na nasze charakterystyki wyglądu lub zachowania? Niekoniecznie. Wiele firm i uniwersytetów zidentyfikowało już wyżej zdefiniowany problem i podejmują pierwsze konkretne kroki w celu wytworzenia mechanizmów sztucznej inteligencji odpornej na subiektywizm ich twórców. W ramach strategii tzw. 5 in 5, IBM jako priorytet dla rozwoju w nadchodzących latach przyjął zastosowanie etyki przy budowie algorytmów oferowanych swoim klientom. W tym celu, jednostka IBM Watson AI Labs wraz z Massachusetts Institute of Technology wspólnie pracują nad pryncypiami, które pozwalają algorytmom sztucznej inteligencji na podejmowanie decyzji w oparciu o pewne ogólnie akceptowane wartości [4]. Jest zatem szansa, że w niedalekiej przyszłości, gdy poprosimy naszego cyfrowego asystenta o rezerwację biletów lotniczych z datą wylotu w piątek trzynastego, nasza prośba zostanie spełniona bez mrugnięcia światłowodem.

Dowiedz się więcej na Think Warsaw: https://ibm.biz/BdzhLj

Przypisy:

[1] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[2] https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

[3] https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/

[4] https://www.research.ibm.com/5-in-5/ai-and-bias/

Blockchain Technical Leader

More #IBMPolskaJutra stories
By ibmblogs on 02/09/2021

Kraków w międzynarodowym programie edukacyjnym P-TECH

Krakowskie I Liceum Ogólnokształcące im. Bartłomieja Nowodworskiego dołącza do międzynarodowego programu rozwoju edukacyjno-zawodowego P-TECH, opartego na współpracy i uruchomionego w Polsce w 2019 roku z inicjatywy IBM. Porozumienie z IBM oraz Instytutem Badań Edukacyjnych uroczyście podpisali nowi Partnerzy programu: przedstawiciele Urzędu Miasta Krakowa, Akademii Górniczo-Hutniczej, Centrum Technologii Kosmicznych, Fundacji Quantum AI. W ramach programu, krakowscy […]

Continue reading

By Egor Golubkov on 30/07/2021

Upmedic jako pierwszy startup w Polsce dołączył do programu IBM „Inkubator AI”

Misją upmedic jest ułatwienie pracy lekarzy i umożliwienie im poświęcania czasu i wiedzy na pacjentów zamiast na procesy biurokratyczne. System skierowany jest na ten moment do radiologów. Po licznych iteracjach z przedstawicielami tej specjalizacji, zespół upmedic zbudował inteligentny kreator raportów, mający na celu poprawienie wydajności i jakości raportów tworzonych przez radiologów.

Continue reading

By ibmblogs on 28/07/2021

Asseco wprowadza nowy Portal Klienta dla firm użyteczności publicznej wspierany przez technologię chmury IBM i Red Hat

Nowe rozwiązanie AUMS  ma pomóc firmom użyteczności publicznej w bezpiecznym zarządzaniu rozliczeniami  klientów przy jednoczesnym zmniejszeniu kosztów IT Asseco Poland przy wsparciu partnera technologicznego IBM stworzyło nową platformę pod nazwą AUMS Portal Klienta. To rozwiązanie nowej generacji w zakresie obsługi klienta, przeznaczone m.in. dla przedsiębiorstw użyteczności publicznej, które chcą umożliwić lub usprawnić cyfrową komunikację, dystrybucję […]

Continue reading