Każdy kod oparty na liczbach pierwszych będzie wkrótce do złamania. A takie kody są używane na całym świecie przez wszystkich i we wszystkim.
Z Krzysztofem Pietroszkiem rozmawia Sebastian Stodolak
Krzysztof Pietroszek profesor z American University w Waszyngtonie, dyrektor Institute for Ideas, inżynier, ekspert w zakresie
informatyki i sztucznej inteligencji
Na początku maja hakerzy przejęli kontrolę nad amerykańskim ropociągiem Colonial Pipeline. Tyle się słyszy o cyberbezpieczeństwie, ale często brzmi to abstrakcyjnie, a tu mieliśmy do czynienia z realnym zagrożeniem. Czy takie zdarzenia to już nowa normalność w przestępczości?
Powinniśmy się do takich akcji przyzwyczajać, zwłaszcza że atak na Colonial Pipeline nie był wyszukany. Takim był atak, który w 2009 r. przeprowadziły wywiady izraelski oraz amerykański. Gdy Irańczycy uruchomili wirówki do wzbogacania uranu, który można byłoby wykorzystać też do budowy bomby jądrowej, służby z tych państw wpuściły w ich systemy informatyczne specjalnie zaprojektowanego wirusa. Działanie stuxnetu polegało na przyspieszaniu oraz spowalnianiu obrotu wirówek do momentu, w którym pękną – zawsze jest taka częstotliwość drgań, która powoduje rozpad danego materiału. Wirówki zostały uszkodzone i Iran cofnął się o kilka lat w swoich planach nuklearnych.
Podejrzewa się, że za atakiem na ropociąg mogli stać agenci obcego mocarstwa.
Cóż, w USA jest mnóstwo śpiochów, chińskich czy rosyjskich szpiegów, którzy pracując w różnych instytucjach, mogą zainstalować złośliwe oprogramowanie na używanych tam wrażliwych i słabo zabezpieczonych systemach mających po 20–30 lat.
Ale atak na Colonial Pipeline zakończył się wypłatą niemal 5 mln dol. okupu. Czy służbom chodziłoby o
pieniądze?
Możliwe, że akcji nie przeprowadziły służby lub że chodziło o wbicie Zachodowi, który tak źle radził sobie z pandemią, kolejnej szpili. Po to, by utrzymać go w stanie kryzysu i poczucia zagrożenia.
Kilka lat temu bestsellerem stała się
książka „Blackout” Marca Elsberga. W wyniku działania hackerów na całym kontynencie pada zasilanie, co skutkuje apokaliptycznym chaosem. Czy taki cyberatak, który efektem przypomina zrzucenie bomby jądrowej, byłby dzisiaj możliwy?
Mocarstwa są w stanie równowagi nuklearnej, co zniechęca je do użycia takiej broni, więc konflikt mógłby przybrać formę wojny technologicznej. Można np. wysyłać drony zdolne łączyć się z sieciami Wi-Fi i w ten sposób wykradać lub niszczyć dane, paraliżować systemy albo zmieniać ich działanie.
Cyberataki nie są jedynie domeną przestępców powiązanych ze służbami, bo do sieci przenosi się też tradycyjna gangsterka. Kto więc będzie głównym zagrożeniem dla cyberbezpieczeństwa: aktorzy państwowi czy prywatni?
Ten podział nie jest taki jasny. Służby też się w pewnym stopniu prywatyzują, a szczególnie cybersłużby. Wybitni specjaliści otrzymują z rynku tak wysokie oferty, że zaczynają sprzedawać usługi. Niemniej ten proces nie jest pełny, np. jako rosyjski spec od cyberataków możesz sprzedać się na rynku, ale granicą dla twojego działania jest interes kraju. Jeśli zaczniesz mu zagrażać, to długo nie pożyjesz. Rynkiem, na którym kupuje się usługi hakerów, jest darknet, ukryta część sieci, z której korzystać można przy użyciu specjalnych narzędzi, jak np. wykorzystująca trasowanie cebulowe przeglądarka TOR. Jeśli chciałbyś np. wykończyć konkurencję, zamówić narkotyki czy kogoś zabić, znajdziesz tam oferty. Darknet jest jednak monitorowany, na ile to możliwe, przez służby.
A co z terrorystami? Mówimy mafia, mówimy państwa, a mogłoby się wydawać, że cyberataki będą domeną terrorystów. Tymczasem dotąd nie doszło do znaczących cyberataków z ich strony.
Bo większość grup jest technologicznie prymitywna. To sprawia z jednej strony, że trudniej wykryć ich działalność, a z drugiej strony uniemożliwia im dokonanie poważnego cyberataku.
Która technologia będzie najmocniej zagrażała bezpieczeństwu? Sztuczna inteligencja? Fake newsy? Deepfake, czyli symulowanie mowy i obrazu? Można sobie wyobrazić np., że tworząc wiarygodnie wyglądające nagranie, na którym Władimir Putin ogłasza, że właśnie wystrzelił głowicę nuklearną w stronę Berlina, wywołuje się poważny kryzys międzynarodowy...
Na szczęście tego ostatniego zagrożenia możemy łatwo unikać. Uczestniczę w projekcie, którego celem jest opracowanie narzędzia wykrywającego fake newsy, szczególnie wizualne, tworzone za pomocą generative adversarial networks (GAN).
To sieci neuronowe o zdolnościach artystycznych. Przez długi czas zanosiło się na to, że będą ogromnym zagrożeniem, ale nie jako np. narzędzie szantażu – obawiano się raczej, że w wyniku rozpowszechnienia się fałszywych obrazów ludzie stracą jakąkolwiek wiarę w obraz zapisany. Ucierpiałyby na tym media, bo skoro każdy może stworzyć wszystko, to np. jeśli widzisz nagranie z zamieszek, natychmiast wątpisz w jego autentyczność.
Chyba że to transmisja na żywo...
GAN umożliwia tworzenie wiarygodnego obrazu w czasie rzeczywistym. Ale niedawno ukazała się seria artykułów związanych z projektem DARPA „Semantic Forensics”, sugerująca, że prawdopodobnie zawsze będzie można zidentyfikować sztuczny obraz. Bo w samym procesie tworzenia takich obrazów jest coś wynikającego z matematyki – swoisty podpis sztucznej inteligencji – który zawsze być może będzie można odczytać.
Czyli pojawią filtry wyłapujące fałszywe informacje, przerobione grafiki, nagrania wideo i audio?
Już jest bardzo dużo takich aplikacji. I nie chodzi tylko o wykrywanie fałszywych treści stworzonych przez
komputery, ale również przez ludzi. Są systemy filtrujące pod tym kątem np. Twittera, choć oczywiście istnieje ryzyko oznaczania prawdy jako fałszu i odwrotnie. Jedna z profesorek naszego instytutu, Nathalie Japkowicz, z dość dużą dokładnością wykrywała na Twitterze rosyjskie fake newsy, ale okazało się, że system miał pewne skrzywienie w kierunku jakichkolwiek rosyjskich tweetów pisanych po angielsku. Chodzi o to, że jeśli ktoś jest Rosjaninem i pisze w języku angielskim, popełnia specyficzne błędy gramatyczne i stylistyczne. System oznaczał takie tweety jako prawdopodobnie fałszywe tylko ze względu na cechę rosyjskości – mimo że mogły zawierać prawdę. Sztuczna Inteligencja nie myśli naprawdę, nie dostrzega niuansów.
Ale może zacznie, jak się ją ulepszy?
Tu zbliżamy się do pytania o granice rozwoju systemów neuronalnych. Większość specjalistów od sztucznej inteligencji uważa, że takie systemy mogą być ulepszane w nieskończoność, aż w końcu powstanie świadoma superinteligencja. Są też tacy, którzy twierdzą, że to niemożliwe. Ja należę do tego grona. Jestem w tym samym obozie, co laureat Nagrody Nobla z fizyki z 2020 r. Roger Penrose. Uważa on, że w procesie myślenia ludzkiego jest coś niealgorytmicznego w sensie matematycznym. Nie chodzi tu o metafizyczną czy boską cząstkę, a o to, że nie da się po prostu pewnego wymiaru naszego myślenia zapisać algorytmem. Jeżeli zaś naprawdę ludzki mózg działa niealgorytmicznie, to nigdy nie będziemy w stanie go komputerowo symulować. Penrose sugeruje, że coś w sposobie działania mózgu jest niedeterministyczne i niealgorytmiczne, i że wyjaśni to być może fizyka kwantowa.
Jeśli faktycznie sztuczna inteligencja pozostanie zaledwie narzędziem, to – wracając do
cyberbezpieczeństwa – będzie raczej narzędziem do ataku czy do obrony?
I do ataku, i do obrony. Problem jest tylko taki, że zapewne strona broniąca się prawdopodobnie będzie się samoograniczać tak, by nie dawać zbyt wiele mocy sprawczej sztucznej inteligencji, żeby nie obróciło się to przeciwko niej. Dzisiaj jest tak, że decyzje, które mają potencjalnie najbardziej drastyczne skutki – np. użycie broni atomowej – podejmowane są przez człowieka. Natomiast agresor będzie oddawał sztucznej inteligencji maksymalnie szerokie pole manewru, by wyrządzić jak najwięcej szkód. A sztuczna inteligencja jest w sensie szybkości działania i możliwości analizy danych bezkonkurencyjna – w ciągu sekundy wykonuje obliczenia, które grupie ludzi, nawet ze wsparciem komputerów, zajęłyby lata. Agresor uzyska w ten sposób bardzo dużą przewagę.
Mówiliśmy, że Rosjanie czy Chińczycy mogą być potencjalnymi sprawcami cyber ataków. Ale czy nie są na straconej pozycji w starciu z Zachodem? Ich technologie nie dorównają chyba tym zachodnim – nie dlatego, że są z zasady mniej twórczy, a dlatego, że ich kreatywność jest tłumiona przez reżimy. Nie ma tam wolnej wymiany myśli. Korea Północna sama nie stworzyłaby bomby jądrowej, tylko musiała ją kupić.
Też miałem nadzieję, że właśnie tak jest – że potrzebujesz wolności do bycia kreatywnym. Tyle że mnóstwo obywateli potencjalnie niebezpiecznych państw, zwłaszcza Chin, wykształciło się na Zachodzie i teraz wracają do siebie, by pracować nad rzekomo pokojowymi technologiami. Pewien urodzony w Wielkiej Brytanii chiński profesor z Uniwersytetu Stanforda, świetnie zarabiający, wybitny informatyk, pracujący nad ogromnymi projektami, jeden z najważniejszych ludzi w dziedzinie uczenia maszynowego, wrócił do Chin. Oficjalnie pracuje teraz nad wyszukiwarką Baidu. Dlaczego? Chińczycy są w stanie zaoferować takiemu naukowcowi miliony dolarów i pełną swobodę.
A czy dostrzega pan zagrożenie dla cyberbezpieczeństwa związane z np. internetem rzeczy i technologią 5G? Czy ofiarą cyberataków staną się wkrótce np. odkurzacze? Ktoś, hakując odkurzacz, może przecież poznać rozkład mojego mieszkania, prawda?
Na poziomie indywidualnym takie rzeczy są proste. Kamera w twoim telefonie z czujnikiem głębi umożliwia służbom zeskanowanie twojego mieszkania. Na poziomie federalnym w USA służby mogą w ten sposób działać całkiem legalnie, zresztą w 2016 r. Apple procesował się o to z FBI. Ale są też państwa, które się takimi szczegółami nie przejmują i po prostu działają. Większym problemem od tego, czy zaatakuje nas zhakowany odkurzacz, jest to, że jesteśmy blisko od całkowitego złamania kryptografii.
Że każdy kod oparty na liczbach pierwszych będzie wkrótce do złamania. A takie kody są używane na całym świecie przez wszystkich i we wszystkim. Dlatego też za znalezienie kolejnych ogromnych liczb pierwszych wyznacza się ogromne nagrody. Bo im dłuższy szyfr, tym trudniej go złamać. Obecnie do złamania szyfru 256-bitowego wielka farma komputerów Departamentu Obrony USA potrzebowałaby więcej czasu, niż istnieje nasz wszechświat. Jednak od opublikowania w 1994 r. tzw. algorytmu Shora wiadomo, że możliwe jest złamanie takiego szyfru w kilka godzin. Potrzeba jednak do tego komputera kwantowego. Z początku sądzono, że budowa takiej maszyny to kwestia być może wieku. Okazuje się jednak, że stworzenie odpowiednio silnego komputera kwantowego do złamania szyfru 256-bitowego zajmie dekadę, może dwie. To bardzo niewiele, bo czy możemy się na to przygotować? Wymagałoby to zmiany sposobu szyfrowania we wszystkich systemach na świecie w ciągu najbliższej dekady.
Komputery kwantowe to obecnie faza prototypu?
Już nie, bo Google w zeszłym roku dokonał przełomu. Na stworzonej przez siebie maszynie kwantowej udowodnił, że wykonane na niej obliczenie – które trwało kilka godzin – zwykłemu komputerowi zajęłoby 10 tys. lat. Komputer Google’a jest jeszcze za słaby, by łamać szyfry, ale takie działanie to kwestia czasu. Gdybym był rządem dużego państwa, mocno inwestowałbym w taką technologię. I faktycznie amerykański oraz chiński rząd inwestują otwarcie, inne mniej otwarcie – ale wszyscy ważni inwestują.
Taki komputer to idealne narzędzie też dla detalicznych przestępców. Swoją drogą, czy będą brać oni za cel duże firmy, na których mogą ugrać duże okupy, czy może będą hurtowo skubać zwykłych ludzi?
Dopóki nie powstanie technologia łamania szyfrów, ludzie nie zrobią nic, by się zabezpieczyć. A gdy już powstanie, wejdziemy w fazę przejściową, gdy wszyscy będą aktualizować, co tylko można. W tym okresie jednak hakerzy będą szybsi i można sobie wyobrazić np. masowe wykradanie danych medycznych. Ale jest też coś takiego jak kryptografia kwantowa. Na razie w teorii, ale gdy stanie się realnym narzędziem, problem z łamaniem haseł zniknie, być może na zawsze, ponieważ informacji zakodowanej kwantowo nie da się podsłuchać bez wykrycia.
Czyli w miarę powstawania sposobów do łamania szyfrów będą powstawać sposoby na obronę przed takimi atakami?
To jak ze spamem. Na początku go nie było, potem było tyle, że się tego nie dało wytrzymać, a wreszcie zaczął znikać w wyniku dostarczenia odpowiednich narzędzi. Tak samo będzie z szyframi. Gdy będzie funkcjonować kryptografia kwantowa, to jeśli ktokolwiek chciałby nas podsłuchiwać, okraść, oszukać, natychmiast będzie wychwytywany.
Może więc będziemy mieli do czynienia z przeniesieniem bardziej tradycyjnych metod oszukiwania do sieci? To chyba już się dzieje. Niedawno portal spidersweb.com opisywał przypadki wyłudzeń, gdy to do klienta banku dzwoni oszust i tak sprytnie nim manipuluje, że klient sam instaluje aplikację szpiegowską i daje jej uprawnienia. Bank wszystkie przeprowadzone przez oszusta transakcje traktuje wtedy jak transakcje klienta.
Tak, to realne zjawisko. Ja sam regularnie otrzymuję telefony od FBI – że czegoś ode mnie potrzebują. Taka wersja oszustwa na policjanta. Na razie to zabawne, bo dzwoni do mnie automat albo dzwoniący nie wie, jak się nazywam, więc łatwo rozpoznać oszustwo. Ważna jest edukacja. W USA od pierwszej klasy dzieci są uczone, że nie wolno podawać swojego prawdziwego imienia, daty urodzenia czy adresu w żadnej grze online.
Zajmuje się pan także wirtualną rzeczywistością. Obserwuje pan, a właściwie współtworzy postępy w upodabnianiu jej do rzeczywistości. Ludzie dzisiaj wchodzą w to coraz głębiej – właśnie młodzi. Czy możliwe jest, że dojdzie do pewnego przeniesienia zachowań przestępczych z użyciem przemocy do sieci? Załóżmy: gry wideo uzyskają tak realistyczne oddziaływanie na wyobraźnię, że umysł zacznie traktować atak przeciwnika z gry jako prawdziwy atak fizyczny?
Jest już kombinezon Tesli, który kosztuje ok. 7 tys. dol. i umożliwia odczuwanie dotyku w wirtualnej rzeczywistości. Zakładając taki kombinezon, możesz sobie ustawić np. próg bólu. Ktoś cię postrzeli albo uderzy w grze – czujesz to. W zasadzie nic nie stoi na przeszkodzie, by po odpowiedniej modyfikacji ustawić go do poziomu bólu śmiertelnego. Ale to jeszcze nic. Neurobiolodzy próbują wpływać na działanie ośrodka mózgowego odpowiedzialnego za interpretację doznań wizualnych. Chodzi o to, by wyłączać czasowo zdolność do odróżniania rzeczywistości realnej od fantastycznej, np. zdjęcia człowieka od rysunku człowieka. Jesteśmy laboratoryjnie obecnie już w stanie czasowo zablokować tę możliwość. Można sobie wyobrazić urządzenie, które nie opiera się na zaawansowanej sztucznej rzeczywistości, lecz na wykorzystaniu takiej funkcji. Wówczas uwierzymy we wszystko, co zobaczymy w grze.
To będzie poważny problem dla prawodawców. Czy wirtualnych gwałcicieli czeka odsiadka? To nie jest takie oczywiste – można przecież powiedzieć, że do grania w gry nikt nikogo nie zmusza.
Ale to tak, jakby powiedzieć, że zakładając krótką sukienkę na spacer, kobieta godzi się na ryzyko gwałtu. Sądzę jednak, że w normalnych grach, które będą pozwalały na fizyczne odczuwanie przyjemności albo bólu, będzie zawsze obserwator oparty na sztucznej inteligencji, monitorujący to, jak gracze z takich funkcji korzystają. Prawo też pewnie jakoś uwzględni to zjawisko – wirtualne akty przemocy będą karane tak, jak np. teraz kradzież wirtualnej waluty w grze czy sexting.
A czy możliwe jest jakieś systemowe zabezpieczenie się – wracając do tematu cyberataków – przed technologiami o wątpliwej proweniencji? Np. niektórzy w UE twierdzą, że wybór dostawców technologii 5G jest w tym kontekście problemem i że trzeba mu zapobiec, budując suwerenność technologiczną.
Ze ściganiem cyberprzestępstw sprawa jest problematyczna – bo jako że są one dokonywane często spoza granic danego kraju, trudno powiedzieć, w jakiej jurysdykcji należałoby sądzić sprawców. Tylko zabezpieczenia mogą stanowić realną broń przeciw cyberprzestępcom. Z prewencją też jest problem. Wiele teorii na temat firm technologicznych uznaje się za spiskowe, podczas gdy są po prostu prawdziwe, jak np. ta, że producenci smartfonów – zwłaszcza chińskich – mogą kontrolować je wbrew woli użytkownika. Tyle że wykrycie tego, że ktoś z takiej możliwości korzysta, jest bardzo trudne, bo te możliwości zakodowane są na poziomie samego sprzętu, a nie jego oprogramowania. Na miejscu polityków na pewno bym się starał tu jednak wprowadzić prawne ograniczenia w stosowaniu tego rodzaju technologii, ale nigdy nie da się zagwarantować 100 proc. bezpieczeństwa. ©℗