Wydane w USA w poniedziałek rozporządzenie wykonawcze o sztucznej inteligencji wyznacza nowe standardy polityczne w tej dziedzinie i obecnie wyprzedza podejście do tematu w Unii Europejskiej.

Prawo to dotyczy kwestii uczciwych i niedyskryminujących metod AI, modeli stanowiących ryzyko, wyzwań dla bezpieczeństwa wewnętrznego, jak produkcja broni biologicznej, czy ofensywnych cyberataków. Ale także prywatności. W taki sposób prywatność ponownie wyrasta na jeden z głównych tematów.

Choć w UE po przyjęciu RODO jest o tym jakby ciszej, to w USA miał miejsce ciągły rozwój technologii i prawa. I obecnie w dużej mierze to stamtąd przychodzą do nas zmiany i trendy. Także praktyczne, by wymienić chociażby rozwój tzw. Privacy Sandbox, czyli przyszłość systemów reklamowych wyświetlających reklamy na stronach internetowych bez konieczności śledzenia użytkowników internetu. Dziś mocne przetwarzanie prywatnych danych jest standardem, ale jest szansa, by odwrócić wektor przetwarzania i przejść do rozwiązań bardziej przyjaznych.

Wróćmy do rozporządzenia Bidena. Jak to się stało, że zawiera również treści związane z ochroną prywatności? Są dwa powody. Po pierwsze, prywatność to zagadnienie szerokie i holistyczne, dotyczy właściwie każdej nowej technologii. Prawie każdy sposób przetwarzania danych może się wiązać z ryzykami prywatności, które trzeba identyfikować i ograniczać. A po drugie, to kwestia osobowa. Chodzi o ludzi mających wpływ na politykę w najpotężniejszym mocarstwie świata. Tak się złożyło, że są to ludzie zajmujący się wcześniej lub obecnie prywatnością. Ludzie z takim właśnie tłem zawodowym lub eksperckim pracują w wielu znaczących miejscach – od agencji po Senat USA i sam Biały Dom. Współdziałają ze sobą, z dobrym, jak widać, efektem. Miarą tego wpływu jest także kształt najnowszego rozporządzenia Białego Domu.

Rozporządzenie wykonawcze to wytyczne dla rządu federalnego USA. Skutecznie zmuszające agencje do podjęcia działań. Nie mam wątpliwości, że w dalszej kolejności nastąpi wpływ na rynek prywatny i konsumentów. Dlaczego jest poświęcone tematowi AI, nie powinno nikogo dziwić.

Nieodpowiedzialne używanie metod AI to duże ryzyko dla prywatności. Może spowodować znaczne szkody społeczne oraz pogłębić istniejące problemy, jak rozwarstwienie i dyskryminacja. Wiele się mówi o ryzyku dezinformacji. To realne wyzwanie, ale także doskonały przykład na wyolbrzymianie problemu. W przypadku np. wojny Izraela z Hamasem rozpowszechniane treści dezinformujące wcale nie są stworzone syntetycznie przez AI. Są to często treści prawdziwe, pochodzące np. z przeszłości lub z innych konfliktów. Jednak miesiące i lata ostrzegania przed ryzykami „wyszkoliły” społeczeństwa tak, by dopuszczać możliwość manipulacji obrazów za pomocą AI. W efekcie ludzie doszukują się fałszywek w przypadku prawdziwych zdjęć i filmów. Nie wierzą w nie i kwestionują ich autentyczność. To bardzo nieoczywista szkoda społeczna, do której doprowadziły: stronnicza dyskusja o AI skupiająca się na „scenariuszach zagłady świata”, ale także nieodpowiedzialne elementy debaty i edukacji o dezinformacji.

Rozporządzenie prezydenta US stara się unikać ryzyk nierealnych, publicystycznych lub PR-owych. Robi to, skupiając się na obiektywnych miarach i kryteriach. W przypadku prywatności mowa o wspieraniu badań i rozwoju modeli matematycznych, takich jak tzw. prywatność różnicowa. Ta metoda pozwala na przetwarzanie danych w taki sposób, by nie dało się ich przypisać do konkretnego człowieka, deanonimizując je. Innym przykładem jest konstrukcja tzw. technologii PET (privacy-enhancing technology), które wdrażają techniczną ochronę w trakcie używania technologii. Także rozwiązań używanych każdego dnia, gdy przeglądamy internet, piszemy za pomocą komunikatorów internetowych, wyszukujemy w nich nowych kontaktów. Rozwiązania takie są już np. w komunikatorach Signal, Whats App, a niedawno w iMessage od Apple. Wkrótce zwiększy się poziom prywatności przy przeglądaniu stron internetowych – dla ewentualnych szpiegujących ustalenie tego, jakie strony przeglądamy, będzie znacznie utrudnione albo wręcz niemożliwe. Wszyscy korzystamy z takich technologii. Choć niektóre z opracowanych metod ochrony prywatności powstały w Europie, to końcowe wdrożenia to już produkty zwykle amerykańskie. Także dlatego regulacje USA mają na nas bezpośredni wpływ. Jeśli nie podoba się to Brukseli, to i tak nic na to nie poradzi. Takie są fakty, a z faktami się nie dyskutuje.

Początkowo rozporządzenie wykonawcze USA zaowocuje powstaniem w ciągu pierwszego roku… 19 rekomendacji, wielu grup roboczych i eksperckich. To ważny etap. Wiele z takich rekomendacji będziemy mogli zaadaptować na rynku prywatnym. Także w UE i w Polsce, gdzie w takiej formie ich nie ma. Szczęśliwie w USA nie brakuje ekspertów, można więc liczyć na wysoką jakość. O jakich rekomendacjach mowa? Chociażby o analizach wpływu AI na rynek pracy. AI powinna służyć pracownikom, a nie likwidować miejsce dla ludzi.

Rozporządzenie wprowadza ścisłe i obiektywne, choć wciąż umowne kryteria uznawania modeli AI za groźne i ryzykowne. Za takie uznano modele wytrenowane na sprzęcie zdolnym do wykonania 1026 obliczeń na liczbach stało- lub zmiennoprzecinkowych. W przypadku obliczeń na danych biologicznych – 1023 operacji. Za groźne zostały też uznane centra danych połączone szybkimi (100 Gbit/s) sieciami i ze zdolnością do wykonywania 1020 operacji

na sekundę przy trenowaniu modelu AI. Firmy oferujące systemy chmurowe będą musiały zgłaszać, czy klienci zagraniczni korzystają z usług do tworzenia modeli AI. Ma to być ograniczenie dla krajów, na które nałożono sankcje, by przeciwdziałać ich rozwojowi w tej dziedzinie. Takim krajem są np. Chiny, gdzie sprzedaż amerykańskich wysokowydajnych procesorów obliczeniowych jest zakazana.

Nieodpowiedzialne używanie metod AI to duże ryzyko dla prywatności. Może spowodować znaczne szkody społeczne oraz pogłębić istniejące problemy, takie jak rozwarstwienie i dyskryminacja

Modele ryzykowne będą musiały zostać zgłoszone sekretarzowi handlu. Zostaną formalnie zarejestrowane i będą podlegały obostrzeniom. Firmy rozwijające silne modele AI będą musiały zgłaszać wyniki testów bezpieczeństwa (tzw. red-teaming) w kwestiach takich jak: obniżenie bariery wejścia na rynek w zakresie opracowywania, nabywania i używania broni biologicznej, wykrywanie luk bezpieczeństwa w oprogramowaniu i rozwój metod ich wykorzystywania, metody z możliwością wpływu na wydarzenia rzeczywiste (np. protesty uliczne), zdolności do automatycznej samoreplikacji lub rozmnażania i inne zbliżone. Rząd USA obawia się zastosowania modeli AI do opracowania ofensywnych cyberoperacji przełamujących zabezpieczenia, a być może także umożliwiających paraliż kraju.

W rozporządzeniu widać obawę o rozwój i rozprzestrzenianie broni biologicznej, chemicznej i radiologicznej. Zwłaszcza tej pierwszej poświęcono wiele miejsca. Z publikacji naukowych wiemy, że już testowano zlecenie modelom AI opracowania niebezpiecznych związków chemicznych i te zrobiły to bardzo szybko. To duże zagrożenie, choć pamiętajmy, że sam przepis nie wystarczy do konstrukcji broni. Mimo to w rozporządzeniu prezydenta USA widać wyraźną obawę przed rozwojem metod takich jak biologia syntetyczna. To ciekawe, bo ryzykom tym nie poświęca się tak wiele miejsca w Europie lub w Polsce. Jeśli jest coś, o czym nie wiemy, to być może tym zagadnieniom powinien się przyjrzeć przyszły rząd.

Światowi politycy mają wiele entuzjazmu i sił, by rozprawiać o zagrożeniach związanych z AI. To ostatni krzyk mody. W dobrym tonie jest wyrazić obawy o zagładę świata. Wydawane są komunikaty, organizowane szczyty poświęcone bezpieczeństwu. Takie jak to w Bletchley w Wielkiej Brytanii. Niektórzy naukowcy i szefowie dużych firm straszą decydentów i ludzi. Politycy powtarzają to, strasząc siebie nawzajem oraz dziennikarzy i obywateli. Jakąś rozrywkę trzeba mieć, więc już zaplanowano kolejne szczyty w Korei Południowej i we Francji. Warto jednak zachować umiar.

Podobno Biden wydał rozporządzenie wykonawcze pod wpływem seansu „Mission Impossible: Dead Reckoning Part One”. W filmie tym zbuntowana sztuczna inteligencja zatapia łódź podwodną, zabijając załogę. Miejmy nadzieję, że ewentualne decyzje o uruchomieniu art. 5 NATO nie będą podlegały wpływom telewizyjnej rozrywki. ©℗

*Dr Łukasz Olejnik, niezależny badacz i konsultant ds. cyberbezpieczeństwa, fellow Genewskiej Akademii Międzynarodowego Prawa Humanitarnego i Praw Człowieka, były doradca ds. cyberwojny w Międzynarodowym Komitecie Czerwonego Krzyża w Genewie, autor książki „Filozofia cyberbezpieczeństwa”