Oparte na sztucznej inteligencji maszyny już dziś potrafią skutecznie udawać ludzi. Mogą imitować rozmowę i wygenerować „swoje” zdjęcia. Wkrótce dowód człowieczeństwa stanie się najpilniejszą potrzebą

Obrazy z aresztowanym Donaldem Trumpem, byłym prezydentem USA, pod koniec marca obiegły najważniejsze media społecznościowe. Na niektórych Trump szarpał się z policją. Na innych był już ubrany w charakterystyczny więzienny uniform. Choć wyglądały dość wiarygodnie, nie miały jednak nic wspólnego z rzeczywistością – zostały wygenerowane za pomocą prostych narzędzi wykorzystujących sztuczną inteligencję. Ich zasada działania jest trywialna: wystarczy wpisać w program opis pożądanej grafiki, by za moment móc pobrać dokładnie taką na swój komputer. By to zrobić, nie potrzeba znajomości programów graficznych ani umiejętności informatycznych. Wystarczy trochę cierpliwości, by precyzyjnie sformułować zamówienie. Program robi wszystko za nas, działa na podstawie niewyobrażalnie wielkiej bazy realnych obrazów. Dzięki niej nauczył się opisujących ich prawidłowości i potrafi odtwarzać je na życzenie.

W redakcji DGP przeprowadziliśmy eksperyment – w ciągu kilkudziesięciu minut udało nam się wygenerować grafiki, które przedstawiały postaci podobne do polskich polityków w kontrowersyjnych sytuacjach. Opatrzone odpowiednim komentarzem mogłyby – choćby na krótko – wprowadzać odbiorców w błąd. Podobne narzędzia stwarzają ogromny potencjał do rozprzestrzeniania dezinformacji. Choć to poważne zagrożenie, jest ledwie wierzchołkiem góry lodowej.

Miquela to 19-letnia mieszkanka Los Angeles, która prowadzi popularny profil w serwisie społecznościowym Instagram. Fryzura jak u księżniczki Amidali z „Gwiezdnych Wojen”, ekscentryczne stroje, nienaganna figura i beztroskie życie wypełnione spotkaniem z przyjaciółmi – tak wygląda jej strona. Obserwuje ją 2,4 mln osób. To świetny wynik, zwłaszcza, że Miquela nie istnieje. Jest tylko eksperymentem, próbą utworzenia wirtualnej influencerki wykreowanej przez maszynę. Dzięki narzędziom opartym na AI można zupełnie od nowa wytworzyć nieistniejące osoby.

Narzędzia, dostępne za darmo lub za drobną opłatą, potrafią nie tylko wygenerować zdjęcia dowolnej osoby. Już dziś można w prosty sposób spreparować cały film. Daje to nieskończone możliwości, np. tworzenia treści pornograficznych z „udziałem” osób, które nigdy nie występowały w ten sposób przed kamerą, zarówno publicznych, takich jak aktorzy czy politycy, jak i prywatnych. Stawia też przed legislatorami i twórcami serwisów internetowych krytyczne wyzwanie stworzenia mechanizmów, które pozwolą każdemu skutecznie bronić własnego wizerunku. Powinny być one tak samo szybkie, jak możliwość tworzenia wiarygodnych fałszywek.

Narzędzie dla oszustów

Narzędzia umożliwiające podszywanie się pod innych otwierają także zupełnie nowe możliwości przed oszustami internetowymi. Wystarczy bowiem próbka nagrania głosowego – fragment rozmowy telefonicznej czy ścieżka audio z filmiku na YouTube, by sztuczna inteligencja potrafiła bardzo dokładnie odtworzyć głos danej osoby. Wyobraźmy sobie, że z prośbą o dokonanie pilnego przelewu dzwoni do nas małżonek. Kto, słysząc znajomy głos, nie złożyłby zlecenia na transfer gotówki? Eksperci w dziedzinie bezpieczeństwa przekonują, że w przypadkach niestandardowych próśb związanych z finansami już dziś najlepiej jest się rozłączyć i samodzielnie oddzwonić do bliskiej osoby z pytaniem, czy to na pewno ona z nami się kontaktowała.

Problem z potwierdzeniem tożsamości starają się rozwiązać choćby banki – podszywanie się pod konsultantów to jedno z popularnych internetowych oszustw. Dla przykładu: w końcu marca mBank wprowadził dodatkową weryfikację dla rozmów inicjowanych przez pracowników. Kiedy konsultant będzie dzwonił do klienta, wyśle do niego powiadomienie w aplikacji mobilnej. Rozmowa będzie kontynuowana tylko wtedy, jeśli klient ją zatwierdzi.

– Dzięki temu klienci będą mieć pewność, że kontaktuje się z nimi pracownik banku, a nie oszust – przekonuje Jarosław Górski, dyrektor departamentu bezpieczeństwa mBanku.

Nikt oczywiście nie jest idealny – w marcu prowadzący kanał Motherboard na YouTube upublicznili film, na którym przechodzą z powodzeniem weryfikację głosową w banku Lloyd’s za pomocą tabletu z nagraniem wygenerowanym przez AI.

W przyszłości kwestia potwierdzania własnej tożsamości stanie się jednym z kluczowych wyzwań w świecie, gdzie AI potrafi już sklonować głos i obraz, a także przeprowadzić rozmowę, która przejdzie słynny test Turinga. To wymyślony przez brytyjskiego matematyka sposób na określanie sprawności maszyny. W skrócie: jeśli prowadzący test sędzia nie odróżni, czy rozmawia z automatem, czy człowiekiem, komputer zaliczy.

Szef OpenAI, która w listopadzie 2022 r. pokazała światu możliwości sztucznej inteligencji poprzez udostępnienie ChatGPT, pracuje nad technologią, która ma rozwiązać problem niepewnej tożsamości. Buduje drugi start-up – Worldcoin, który zajmuje się między innymi certyfikowaniem człowieczeństwa za pomocą biometrii.

Dziś maszyny potrafią nie tylko wystarczająco dobrze prowadzić rozmowę, ale też oszukiwać algorytmy weryfikujące, czy użytkownik internetu jest człowiekiem. Test CAPTCHA to interaktywne okienko dodawane do formularzy w celu odfiltrowania ludzkich użytkowników strony (to np. zabezpieczenie przed spamem). Zazwyczaj wymaga ono, by przepisać ciąg zniekształconych liter, czy np. spośród dziewięciu obrazków wybrać te, na których jest określony przedmiot. Jest wyjątkowo trudne do przejścia przez maszynę. Ale ChatGPT-4, konwersacyjne narzędzie, poradził sobie z problemem. Skontaktował się z biurem obsługi strony, na którą chciał się dostać i udając niedowidzącą osobę przekonał pracownika, by zdalnie rozwiązał za nie test. Całą sytuację w celach badawczych zaaranżowali pracownicy laboratorium, które pracowało nad czatbotem, niemniej wywarła piorunujące wrażenie choćby na Elonie Musku, który zakładał OpenAI, a dziś jest jednym z największych krytyków nagłego rozwoju dużych modeli językowych, czyli programów w typie ChatGPT. Podpisał nawet list otwarty przygotowany przez Future of Life Institute, w którym naukowcy zajmujący się sztuczną inteligencją nawołują, by zawiesić wyścig zbrojeń w tej technologii na pół roku. Tak, by legislatorzy zdążyli przyjąć odpowiednie prawo regulujące rynek.

Boskość kontrolowana

Na zagrożenia związane z rozwojem tej technologii zwracał uwagę izraelski historyk i pisarz Yuval Harari. Wraz z Tristranem Harrisem, etykiem technologii, i matematykiem Azą Raskinem opublikowali w „The New York Times” esej, w którym przekonują, że wytrenowanie maszyn tak, by posługiwały się naturalnym ludzkim językiem, może przynieść upadek demokracji.

„Czy jeśli nie pójdziemy tak szybko, jak to możliwe, Zachód nie będzie ryzykował przegranej z Chinami? Nie. Rozmieszczenie i wplątanie niekontrolowanych SI w społeczeństwo, wyzwalające boskie moce oderwane od odpowiedzialności, może być powodem, dla którego Zachód przegra z Chinami” – piszą akademicy. „Kiedy boskie moce zostaną połączone z proporcjonalną odpowiedzialnością i kontrolą, możemy zrealizować korzyści, które AI obiecuje” – przekonują.

Nad kontrolą pracują instytucje UE. Do końca roku mają zakończyć się prace nad AI Act, który ma uregulować stosowanie takich narzędzi jak ChatGPT, ale też maszyny wykorzystywane w medycynie, finansach czy przemyśle samochodowym. Przepisy procedowane są w Parlamencie Europejskim. Wejdą jednak w życie nie wcześniej niż w 2025 r. Jak świat zmieni się do tego czasu?

Materiały prasowe