Etyka powinna być więc w centrum zainteresowania tych, którzy rozwijają i korzystają z nowych rozwiązań technologicznych - pisze dr Michał Nowakowski, Counsel w NGL Legal CEO w ceforai.
Etyka powinna być więc w centrum zainteresowania tych, którzy rozwijają i korzystają z nowych rozwiązań technologicznych - pisze dr Michał Nowakowski, Counsel w NGL Legal CEO w ceforai.
Świat realny coraz częściej zaczyna przenikać się ze światem cyfrowym. Nasz ślad cyfrowy, czyli to, co pozostawiamy o sobie w internecie, stanowi źródło wielu cennych informacji, które mogą być wykorzystane zarówno dla dobrych, jak i wątpliwych moralnie celów. Często nie mamy świadomości, jak wiele danych jest zbieranych poprzez strony internetowe czy aplikacje, a także jak są one później wykorzystywane i czy przykładowo nie jesteśmy niekiedy poddawani swoistej manipulacji ze strony algorytmów i modeli, które często utożsamiamy ze sztuczną inteligencją. Nie są one jednak „inteligentne”, a za ich „sztucznością” stoi zawsze człowiek, który wpływa na kierunek ich stosowania, i to on decyduje – przynajmniej pośrednio – jak będą się one „zachowywać” w przestrzeni, nie tylko wirtualnej.
Niedawno ukazał się krótki, ale treściwy dokument opracowany przez ekspertów Parlamentu Europejskiego, który wskazuje na wyzwania i zagrożenia, jakie stają przed państwami i społeczeństwem w kontekście rosnącej cyfryzacji życia, także o charakterze etycznym. Dynamiczny rozwój nowych technologii powoduje, że ryzyka z nimi związane, które do tej pory były co najmniej bagatelizowane, zaczynają przykuwać uwagę coraz większej rzeszy odbiorców. Międzynarodowe organizacje jak UNESCO czy WHO (choć lista jest znacznie dłuższa) w ciągu ostatniego roku opublikowały rozbudowane wytyczne dotyczące tworzenia i stosowania tzw. etycznej sztucznej inteligencji, a liczba dyskusji i dokumentów naukowych na ten temat stale rośnie.
Niektórzy zdają się iść jeszcze dalej. Jedna z propozycji Parlamentu Europejskiego, dotycząca zmian do projektowanego rozporządzenia w sprawie sztucznej inteligencji, zakładała wprowadzenie twardego wymogu w zakresie takiego tworzenia rozwiązań opartych na systemach sztucznej inteligencji, aby te były etyczne i godne zaufania, minimalizując tym samym ryzyko dla użytkownika końcowego. Projekt, który ma szansę zostać uchwalony jeszcze w tym roku, wprowadzić ma także katalog praktyk zakazanych z użyciem AI, które śmiało można określić jako nieetyczne i szkodliwe.
Etyka nowych technologii, w tym w szczególności systemów sztucznej inteligencji bazujących na historycznych danych i często technice samodzielnego uczenia się, stanowi dziedzinę stosunkowo nową i jeszcze dość często niewłaściwie utożsamianą – li tylko – z koniecznością budowania zestawu norm, wartości i scenariuszy, które mają zapewnić, że dany system będzie działał w zgodzie z przyjętym zestawem wartości. Często w tym kontekście mówi się o dość już wyeksploatowanym problemie wagonika (ang. trolley dillema) i samochodów (pół)autonomicznych, które muszą na drodze „podejmować decyzje” za kierowcę. Odpowiedzialność za te decyzje spoczywa jednak nadal – lub przynajmniej powinna – na kierowcy. Być może także dostawcy rozwiązania czy producenta samochodu. Temat jest trudny i dyskusja nad kierunkiem rozwiązań nadal się toczy.
W praktyce dotyka jednak znacznie szerszej gamy problemów, które związane są głównie z obszarem danych – ich jakością, ilością czy dopuszczalnością wykorzystania np. na potrzeby analizy czy predykcji. Zaawansowana analityka wymaga dostarczania danych wytworzonych w przeszłości, zawierających swoiste błędy, które mogą polegać przykładowo na zaszytym w nich uprzedzeniu (bias), które następnie może być „skopiowane” do danego modelu sztucznej inteligencji. W konsekwencji system oparty na niewłaściwie oczyszczonych danych może zadziałać w sposób dyskryminacyjny, np. odmawiając osobom o konkretnym kolorze skóry czy płci przyznawania kredytu. Decyzja powinna ostatecznie należeć do człowieka, jednak postępująca automatyzacja sprzyja delegowaniu zadań – szczególnie tych nudnych i powtarzalnych – na rozwiązania teleinformatyczne. Dane są w tym przypadku tworzone przez człowieka i jako takie – zawsze – obarczone będą jakąś formą uprzedzenia i dyskryminacji. Świat i ludzie nie są idealni.
Dane stanowią paliwo dla rozwiązań opartych na nowych technologiach. Dotyczy to nie tylko wspomnianych już systemów sztucznej inteligencji, lecz także zastosowań w zakresie identyfikacji biometrycznej, technologii łańcucha bloków (blockchain) i rozproszonego rejestru czy coraz częściej wykorzystywanych rozwiązań chmurowych. Paliwo to jest niezwykle cenne, a wyrażając zgodę czy akceptując regulamin „darmowych” usług, przekazujemy wiele informacji o nas samych. Czy świadomie? W niektórych przypadkach – być może.
Podmioty, do których trafiają nasze dane, mają szczególne obowiązki, które mogą wynikać zarówno z przepisów prawa i regulacji, które szczególnie przez ostatnie miesiące są intensywnie opracowywane i przyjmowane na poziomie Unii Europejskiej, jak i pewnej moralnej odpowiedzialności za człowieka i jego otoczenie. Zasady te, choć nie mają twardego charakteru, powinny zawsze towarzyszyć tworzeniu i stosowaniu rozwiązań, które dotykają człowieka i jego danych. Nawet jeżeli coś jest dozwolone przez prawo, nie musi być to moralnie „poprawne”, choć jak to zwykle bywa w zróżnicowanym świecie – podlega to szczególnej ocenie w każdym indywidualnym przypadku.
W konsekwencji twórcy i operatorzy, a także użytkownicy rozwiązań opartych na nowych technologiach powinni przykładać szczególną wagę do budowania kultury typu data-driven, bazującej na danych i ich bezpieczeństwie, oraz edukacji zarówno na poziomie organizacji, jak i jej klientów. Samo wdrażanie rozwiązań organizacyjnych i technicznych to za mało, aby zapewnić, że systemy sztucznej inteligencji działają etycznie, bowiem za każdym rozwiązaniem stoi człowiek, który je monitoruje i nadzoruje, a ten musi wiedzieć, co jest (lub powinno być) dobre lub złe. Duch organizacji ma tutaj także ogromne znaczenie.
Jednocześnie powinniśmy pamiętać, że i my – użytkownicy – przyczyniamy się do budowania (nie)etycznych rozwiązań opartych na nowych technologiach. Nasz ślad cyfrowy też ma znaczenie, może bowiem stanowić swoisty pokarm dla algorytmów i modeli, które mogą „uczyć się” niewłaściwych „zachowań” także od użytkowników internetu. Ważne jest także to, jak dysponujemy naszymi danymi i na co wyrażamy zgodę. Jeżeli nie będziemy na to zwracali uwagi, to nawet najbardziej restrykcyjne przepisy prawa nie uchronią nas przed potencjalnymi negatywnymi skutkami cyfryzacji.
Etyka powinna być więc w centrum zainteresowania tych, którzy rozwijają i korzystają z nowych rozwiązań technologicznych. Wymaga to współpracy na wielu polach, a także zrozumienia, jak ważne są nasze prawa, które zapisane są chociażby w Karcie praw podstawowych.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Reklama
Reklama