X
Następny artykuł dla Ciebie
Wyświetl >>

Dlaczego liderzy powinni zrozumieć sztuczną inteligencję?

Mike Walsh  · 5 min

Dlaczego liderzy powinni zrozumieć sztuczną inteligencję?

Jednym z największych źródeł niepokoju związanym z rozwojem sztucznej inteligencji (AI) nie jest strach przed tym, że technologia zwróci się przeciwko nam. Problem wynika raczej z samego zrozumienia, w jaki sposób ona działa. Dlaczego poznanie jej tajników jest ważne nie tylko z punktu widzenia przedsiębiorców i biznesu, lecz także dla każdego z nas?

„Zrozumiała sztuczna inteligencja” mogłaby rozwiązać problemy systemów, które dyskryminują kobiety ubiegające się o kredyt, stosujących niejasne kryteria w rekomendacjach do wydawanych wyroków sądowych czy ograniczających liczbę pacjentów z zaleceniem dodatkowej opieki medycznej. Równie ważne, jak zrozumienie, dlaczego algorytm podjął jakąś decyzję, jest zadanie pytania, co było celem optymalizacji.

Algorytmy uczenia maszynowego często określa się mianem czarnych skrzynek. Przypominają one zamknięte systemy, którym dostarcza się danych wejściowych i otrzymuje dane wyjściowe, bez wyjaśniania dlaczego. Zrozumienie dlaczego jest ważne w wielu branżach, szczególnie tych, na których ciążą obowiązki powiernicze. Są to obszary takie, jak finanse konsumenckie, opieka zdrowotna czy edukacja. Te dziedziny blisko dotykają życia codziennego wielu ludzi. Algorytmy są również stosowane w obszarach związanych z wojskowością i polityką oraz wymagających wytłumaczenia się z podjętych decyzji przed wyborcami.

Przejmij kontrolę nad swoim mózgiem i wyzwól swój potencjał »

Umysł Lidera - ebook 

Umysł lidera (The Leading Brain)
Wykorzystaj przełomowe odkrycia neuronauk, które zmieniają podejście do zarządzania sobą i innymi
Książka dla Trenera 2018 w prestiżowym konkursie Polskiego Towarzystwa Trenerów Biznesu.
Najlepsza książka biznesowa 2017 roku w kategorii Zarządzanie wg startegy+business.
Lektura obowiązkowa dla osób, które chcą pokonać swoje ograniczenia i poznać szczyt swoich możliwości!

Niestety, kiedy chodzi o platformy głębokiego uczenia (deep learning), udzielanie wyjaśnień jest problematyczne. Dla wielu użytkowników atrakcyjność uczenia maszynowego polega na jego zdolności do znajdowania schematów sprzecznych z logiką i intuicją. Jeśli można stworzyć mapę relacji pomiędzy danymi wejściowymi i wyjściowymi na tyle prostą, aby ją wyjaśnić, nie trzeba w tym kontekście stosować uczenia maszynowego. W przeciwieństwie do systemu, który został zaprojektowany przez człowieka, nie można po prostu zajrzeć do sieci neuronowej i zobaczyć, jak działa. Dzieje się tak, ponieważ sieci neuronowe składają się z tysięcy stymulowanych neuronów ułożonych w powiązane ze sobą warstwy. Otrzymują one sygnały wejściowe i wyjściowe przekazywane następnie do kolejnych warstw, aż do otrzymania efektu końcowego. Nawet jeśli interpretacja technicznego działania modelu jest możliwa w kategoriach zrozumiałych dla specjalistów w dziedzinie AI, wyjaśnienie procesu laikowi stanowi odrębną kwestię.

Jak sztuczna inteligencja pomaga w biznesie?

Weźmy za przykład Deep Patient – platformę deep learning działającą w szpitalu Mount Sinai w Nowym Jorku. System został przeszkolony za pomocą elektronicznej dokumentacji medycznej 700 000 pacjentów i nauczył się przewidywać choroby i wykrywać prawidłowości ukryte w danych szpitalnych. Dzięki temu, bez pomocy człowieka, ostrzega pacjentów zagrożonych pojawieniem się różnych chorób, w tym nowotworów.

Ku wielkiemu zaskoczeniu Deep Patient wykazał również umiejętność przewidywania wystąpienia niektórych zaburzeń psychicznych, które niezwykle trudno zdiagnozować nawet lekarzom. Wyzwaniem dla specjalistów w takiej sytuacji jest znalezienie równowagi pomiędzy uznaniem skuteczności i wartości systemu a wiedzą i zaufaniem, biorąc także pod uwagę, że systemy nie w pełni zrozumieją sposób ich działania.

Niektóre branże i organizacje inwestują w audyty i wyjaśnianie systemów uczenia maszynowego. Agencja Zaawansowanych Obronnych Projektów Badawczych (DARPA) finansuje obecnie program o nazwie „Explainable AI” („Zrozumiała sztuczna inteligencja”), którego celem jest interpretacja technologii deep learning stosowanej przy okazji pozyskiwania danych i sterowania dronami. Organizacja Capital One, zmagająca się z poważnymi problemami dotyczącymi naruszenia ochrony danych, stworzyła zespół badawczy zajmujący się poszukiwaniem sposobów wytłumaczenia technologii deep learning. Podjęła się tego, ponieważ amerykańskie prawo wymaga, aby tego typu firmy wyjaśniały decyzje, np. o powodach odmowy wydania karty kredytowej potencjalnemu klientowi.

Przepisy regulujące działanie algorytmów prawdopodobnie zostaną rozwinięte w ciągu najbliższych lat, ponieważ społeczeństwo jest coraz bardziej zaniepokojone wpływem AI na życie. Na mocy Ogólnego rozporządzenia o ochronie danych (RODO), które weszło w życie w 2018 roku, Unia Europejska wymaga, aby firmy były w stanie wyjaśnić decyzje wynikające ze stosowania algorytmów. Być może w najbliższej przyszłości projektowanie sztucznej inteligencji nie będzie możliwe bez udziału najlepszych naukowców, ekspertów ds. prywatności oraz prawników.

Pułapki sztucznej inteligencji

U podstaw przepisów regulujących algorytmy leży kwestia odpowiedzialności za ich działanie. Sprawienie, aby sztuczna inteligencja była łatwiejsza do wyjaśnienia, nie polega na uspokojeniu liderów i zapewnieniu ich, że mogą ufać decyzjom podejmowanym przez algorytmy. Chodzi również o stworzenie ludziom możliwości odwołania się od decyzji podejmowanych przez sztuczną inteligencję. Przejrzystość algorytmów dotyczy nie tylko uczenia maszynowego, ale wszystkich algorytmów, których sposób funkcjonowania nie jest jawny.

Zdarzało się już, że algorytmy, które wydawały się stronnicze lub ich działanie było niejasne, zostały zakwestionowane prawnie. W 2014 roku Federacja Nauczycieli w Houston wniosła pozew przeciwko miejscowemu kuratorium, twierdząc, że jego pracownicy wykorzystali algorytm w celu ustalania sposobu oceniania, zwalniania nauczycieli oraz przyznawania im premii. Zdaniem pozywających było to niesprawiedliwe. System użyty przez kuratorium został opracowany przez prywatną firmę, która uznała, że algorytm stanowi jej tajemnicę handlową – i odmówiła udostępnienia go nauczycielom. Jak twierdzili pokrzywdzeni, brak wiedzy na temat kryteriów oceny powodował, że odmawiano im prawa zakwestionowania zwolnienia lub oceny ich pracy. Sąd okręgowy stwierdził, że oprogramowanie naruszyło prawa nauczycieli do rzetelnego procesu zagwarantowane im w konstytucji. Sprawa ostatecznie zakończyła się ugodą w 2016 roku, w wyniku której zrezygnowano z dalszego korzystania z algorytmu. Przewiduje się, że liczba podobnych pozwów wzrośnie w ciągu najbliższych kilku lat.

Czy sztuczna inteligencja jest potrzebna liderom?

Z punktu widzenia kadry zarządzającej najważniejsze pytanie, jakie należy zadać zespołom projektującym zautomatyzowane rozwiązania, nie powinno dotyczyć powodów podjęcia określonej decyzji, lecz tego, czemu ma służyć optymalizacja. To właśnie ona ma największe znaczenie. Przyjrzyjmy się temu zagadnieniu bliżej. Istnieje eksperyment myślowy dotyczący maksymalizacji produkcji spinaczy, który został zaproponowany przez szwedzkiego filozofa Nicka Bostroma. Bostrom opisuje w nim, jak sztuczna inteligencja może zniszczyć świat, otrzymując zadanie optymalizacji produkcji spinaczy, „w wyniku czego [AI] najpierw przekształca Ziemię, a następnie coraz większe obszary przestrzeni kosmicznej w zakłady produkujące spinacze”.

Sztuczna inteligencja opisana w artykule Bostroma nie jest z natury zła. Jego zdaniem dano jej niewłaściwy cel i nie wyznaczono ograniczeń, przez co zaczęła stwarzać zagrożenie. Niewłaściwe cele mogą spowodować niezamierzone szkody. Na przykład program oparty na AI, którego zadaniem było skoordynowanie planów lekcji i rozkładów jazdy autobusów w Bostonie, wycofano z użycia w wyniku protestów osób oburzonych nieuwzględnieniem ich planów pracy i koncentracją na wydajności kosztem ich edukacji. Jednak czy była to wina programu? Przecież został stworzony do znalezienia sposobów, które pozwolą na oszczędności. W przeciwieństwie do złożoności konstrukcji i interpretacji modelu sztucznej inteligencji, debata i podejmowanie decyzji dotyczących celów optymalizacji systemów pozostają w zakresie możliwości władz firm. I tak być powinno.

Sztuczna inteligencja jest też narzędziem, które odzwierciedla priorytety przedsiębiorstw i polityków. Dyskusja na temat ofiar śmiertelnych wypadków samochodowych lub zdarzeń kończących się zgonem w miejscu pracy, kiedy za podstawę przyjmujemy statystykę, zdaje się bezduszna. Wydaje się jednak konieczna. Jeśli podejmiemy decyzję o opracowaniu systemu algorytmicznego w celu minimalizacji liczby wypadków ogółem, musimy ocenić wszystkie wynikające z tego szkody w kontekście zastępstwa tego systemu. W ten sposób powinniśmy być gotowi do oceny samych siebie i do uzasadnienia swoich decyzji i zasad ich projektowania. Niestety zarządzający firmami spotykają się z wątpliwościami akcjonariuszy, klientów oraz organów kontrolnych. Ich zastrzeżeniom podlegają przede wszystkim cele optymalizacji. Finalnie istnieje zagrożenie, że dojdzie do procesów wymagających ujawnienia decyzji dotyczących projektowania systemów sztucznej inteligencji oraz względów etycznych i społecznych, które zostały uwzględnione przy jej planowaniu. Ważna jest również kwestia źródeł i metod, dzięki którym pozyskano dane treningowe, a także skuteczność monitorowania wyników tych systemów pod kątem stronniczości i dyskryminacji. Starannie dokumentuj swoje decyzje i zadbaj o zrozumienie lub przynajmniej chęć zaufania procesom algorytmicznym leżącym w sercu twojej działalności.

Tłumaczenie, że stosowana platforma AI była czarną skrzynką, której nikt nie rozumiał, zapewne nie będzie skuteczną obroną prawną w XXI wieku. Będzie równie przekonująca, co twierdzenie, że „zmusił mnie do tego algorytm”.

Powiązane artykuły


Bądź na bieżąco


Najpopularniejsze tematy