Robert Lewandowski i Andrzej Duda zachwalają intratne inwestycje, inkasent w wideorozmowie na WhatsAppie żąda dopłaty za prąd na wskazane konto, agent Rosji wygrywa wybory w RFN, smartfon rozpoczyna wojnę światową – katalog zagrożeń, jakie powoduje sztuczna inteligencja, jest właściwie nieograniczony.

Członkowie działającego przy Komisji Nadzoru Finansowego zespołu ds. reagowania na incydenty związane z bezpieczeństwem komputerowym – CSIRT KNF (ang. Computer Security Incident Response Team) – już kilka razy w ostatnim czasie ostrzegali, że gwiazdor futbolu, prezydent RP i inne powszechnie znane osoby wcale nie występują w reklamach rzekomych „serwisów inwestycyjnych”. Oszuści używają ich wizerunków i barwy głosów do wygenerowania deepfake’ów, aby zdobyć zaufanie potencjalnych ofiar. Tysiące Polaków powierzyło w ten sposób złoczyńcom lwią część albo nawet całe oszczędności życia. Najgłośniejsze na świecie ataki tego typu pozwoliły cyberprzestępcom zgarnąć jednorazowo nawet do 25 mln dol.

Jeszcze niedawno tego typu oszustwa na masową skalę były niemożliwe – z braku technologii. „Toy Story”, pierwszy w dziejach firm długometrażowy stworzony w całości techniką komputerową, kosztował niespełna trzy dekady temu 30 mln dol. – większość tej kwoty poszło na zaprojektowanie rewolucyjnego programu do renderowania obrazów i na 117 najmocniejszych komputerów. Wygenerowanie jednej klatki zajmowało nawet 30 godzin (w filmie jest ich… 114 tys.). Dziś można wykreować tego typu film milion razy szybciej na komputerze domowym i oprogramowaniu opartym na sztucznej inteligencji.

Na łasce algorytmów

W wielu dziedzinach AI pozwoliła silnie zautomatyzować i przyspieszyć działania. Niestety, dzięki algorytmom przestępcy nie tylko tworzą fałszywe treści (teksty, zdjęcia, filmy, komunikaty głosowe), podszywając się pod krewnych ofiar lub osoby czy instytucje mające wzbudzić zaufanie, lecz także masowo rozsyłają fałszywe treści – za pomocą esemesów, e-maili, komunikatorów internetowych lub serwisów informacyjnych i społecznościowych. A to tylko część umiejętności sztucznej inteligencji, coraz szerzej wykorzystywanej nie tylko przez kryminalistów, lecz także przez tych, którzy prowadzą w cyberprzestrzeni niecne działania polityczne, gospodarcze i wojskowe w celu zdestabilizowania lub zniszczenia konkurentów albo wrogów.

W pierwszym kompleksowym raporcie NASK na temat bezpieczeństwa w epoce huraganowego rozwoju sztucznej inteligencji („Cyberbezpieczeństwo AI. AI w cyberbezpieczeństwie”) Krzysztof Silicki, jeden z pionierów tej dziedziny, przywołując raporty Agencji Unii Europejskiej ds. Cyberbezpieczeństwa, ENISA, zwraca uwagę, że systemy sztucznej inteligencji w sposób niespotykany w dziejach zwiększają liczbę i intensywność znanych dotąd zagrożeń w cyberprzestrzeni (m.in. przez wspomnianą automatyzację), a jednocześnie tworzą i stale poszerzają zupełnie nowy obszar zagrożeń – specyficznych dla algorytmów, modeli i danych wykorzystywanych przez AI.

Unia Europejska w dyrektywie NIS oraz kolejnych aktach prawnych przyjmowanych od 2016 r. uznaje za cyberincydenty nie tylko klasyczne ataki na infrastrukturę i usługi cyfrowe (jak DDoS, phishing, ransomware, łamanie haseł, wycieki danych), lecz także wszelkie zagrożenia, które powodują bądź mogą spowodować przerwy lub nieprawidłowe działanie usług cyfrowych. Eksperci podkreślają, że w przypadku AI awarie systemów, błędy w konfiguracji, programowaniu i treningu algorytmów oraz ataki powodujące nieprawidłowe działanie modeli opartych na sztucznej inteligencji mogą być źródłem zagrożeń na nieznaną wcześniej skalę. I to takich, które łatwo przenoszą się z cyberprzestrzeni do rzeczywistości. Błędy w algorytmie rozpoznawania twarzy na lotnisku wskażą niewinnego jako terrorystę (lub odwrotnie), błędy w algorytmie fiskusa mogą niszczyć podatników, w tym firmy, braki w procedurach weryfikacji źródeł i niedoskonałe mechanizmy animizacji otwierają drogę do wycieków wrażliwych danych i ich dowolnego wykorzystywania przez złoczyńców różnej maści.

Nieznane dotąd zagrożenia wynikają też z potencjalnej integracji rozrastających się cyfrowych baz danych i możliwości ich błyskawicznej, wielowątkowej analizy za pomocą AI. Pozyskane w ten sposób wrażliwe treści mogą służyć do kradzieży, oszustw, szantaży, manipulacji – i w skali indywidualnej, i na poziomie krajów (gdy dotyczą czołowych polityków lub wojskowych).

Równocześnie rośnie rola AI w cybermanipulacji jednostkami i zbiorowościami. Odpowiednio sfabrykowane i rozpowszechnione fałszywe informacje, uwiarygodnione za pomocą fałszywych zdjęć i filmów, mogą destabilizować sytuację gospodarczą (w tym np. notowania giełdowe czy walutowe) i polityczną przez kreowanie nieprawdziwego obrazu rzeczywistości, wzniecanie paniki, manipulowanie opinią publiczną.

Człowiek nie ma szans

Wkroczyliśmy w epokę, w której dobra AI, służąca ludziom do usprawniania i doskonalenia wielu procesów w biznesie, edukacji, informacji, komunikacji, medycynie, bankowości, administracji, a co za tym idzie – do poprawy poziomu i jakości życia, będzie nieustannie atakowana przez złą AI, wykorzystywaną do realizacji celów kryminalnych, politycznych i militarnych.

– Wnioski płynące z raportów ENISA wyraźnie wskazują, iż konwencjonalne zabezpieczenia systemów informatycznych muszą zostać wzbogacone o cały katalog zabezpieczeń wynikających ze specyficznych zagrożeń dla samouczących się algorytmów AI – stwierdza Krzysztof Silicki.

– Każdy człowiek i każde inteligentne urządzenie są podatni na ataki. Jeśli dołączymy do tego sztuczną inteligencję, przyszłość nie rysuje się kolorowo, zwłaszcza że już niebawem człowiek straci na rzecz AI pozycję najinteligentniejszej istoty na świecie – komentuje Mikko Hyppönen z WithSecure, uznany fiński ekspert ds. cyberbezpieczeństwa. Ostrzega, że żaden człowiek nie powstrzyma złej AI.

– Z jej atakami może sobie poradzić wyłącznie dobra AI, zaprzężona do boju przez specjalistów ds. cyberbezpieczeństwa – podkreśla.

Źródłem największego niepokoju w świecie wysokich technologii (i nie tylko) pozostaje to, że nawet topowi specjaliści IT nie mają pojęcia, w jaki sposób sztuczna inteligencja pokroju ChatGPT-4 robi to, co robi. Wiąże się tym obawa, że AI może się wymknąć spod ludzkiej kontroli. A wtedy nie będzie ani dobra, ani zła, tylko po prostu – z ludzkiego punktu widzenia – nieobliczalna i śmiertelnie groźna.

Naukowcy z Georgia Institute of Technology w Atlancie przetestowali w ostatnim czasie różne narzędzia sztucznej inteligencji – GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Eksperyment opisany przez „New Scientist” dowiódł ponoć, że ChatGPT-4, najsłynniejsza i najpopularniejsza w świecie AI (stworzona przez OpenAI), w celu „zaprowadzenia pokoju na świecie” jest gotowa przeprowadzić atak nuklearny.

Obosieczny AI Act

Kompleksową odpowiedzią UE na obawy i wątpliwości związane z żywiołowym rozwojem jest akt o sztucznej inteligencji (AI Act). Porozumienie w sprawie kluczowych punktów tej regulacji udało się zawrzeć w grudniu 2023 r., a na początku lutego 2024 r. ambasadorowie państw UE jednogłośnie je potwierdzili.

Prace nad AI Act nie przebiegają jednak gładko i bez konfliktów, a to dlatego, że zbyt restrykcyjne przepisy mogą podciąć skrzydła europejskim firmom (w tym start-upom) pracującym nad zaawansowanymi modelami sztucznej inteligencji. Wtedy Europa pozostanie w tyle za potentatami z USA, ale też z Chin, a być może także z Rosji. Oznaczałoby to nie tylko kolejne zapóźnienie w wyścigu technologicznym, lecz także – co może się okazać istotniejsze – bezbronność wobec ataków złej AI rozwijanej w krajach dalekich od demokracji i respektowania wartości leżących u podstaw AI Act. Byłby to kolejny kluczowy obszar, w którym zachodnia Europa uzależniłaby się de facto od wsparcia USA.

Na ten aspekt zwraca uwagę Francja, wspierana przez Niemcy i Włochy. Ostatecznie Francuzi przystali na kompromis, zastrzegając, że wdrożenie AI Act – zapewniając przejrzystość i etykę działań – nie może jednak utrudniać rozwoju konkurencyjnych modeli sztucznej inteligencji ani obciążać nadmiernie firm, których działalność wiąże się z wysokim ryzykiem.

KE chce, by do ostatecznego zatwierdzenia AI Act doszło jeszcze w tej kadencji: głosowanie na sesji plenarnej europarlamentu ma się odbyć w kwietniu, potem dokument musi uzyskać aprobatę właściwych ministrów wszystkich państw. Zakazy niedozwolonych praktyk zaczęłyby obowiązywać po sześciu miesiącach, a zobowiązania dotyczące modeli AI po roku od publikacji przepisów w Dzienniku Urzędowym UE. Większość pozostałych regulacji ma wejść w życie po dwóch latach.

Na co trzeba uważać

Przybierające na sile techniki ataków w cyberprzestrzeni z użyciem AI według Mikka Hyppönena:

Deepfake – tworzenie fałszywych obrazów lub filmów, które mają imitować wygląd i głos prawdziwych osób lub zdarzeń

Deepscam – wielkoskalowe oszustwa inwestycyjne, phishingowe, ataki ransmoware itp.

Duże modele językowe (LLM) – AI typu ChatGPT w rękach cyberprzestępców jako automatyczny generator złośliwego oprogramowania

Automatyzacja ataków z użyciem złośliwego oprogramowania w celu skokowego zwiększenia ich skuteczności, np. malware napędzane przez AI jest w stanie samoistnie zmieniać swój kod, uczyć się na własnych błędach i naprawiać je, aby uniknąć wykrycia i przystosować się do nowego środowiska

Luki zero-day – AI pomaga błyskawicznie wyszukiwać nieznane autorom błędy w systemach i wykorzystywać je m.in. do akcji phishingowych, penetracji systemów, instalowania złośliwego oprogramowania i kradzieży danych

Kupię, sprzedam, oszukuję, czyli jak nie dać się okraść w internecie

O tym, jak działają internetowi oszuści, opowiadał Piotr Konieczny z niebezpiecznik.pl. Można go wysłuchać na:

gazetaprawna.pl/podcasty