– Cyfrowy świat daje twórcom ogromne możliwości, ale też naraża ich na nowe, złożone zagrożenia – mówiła podczas briefingu prasowego Sylwia Adamczyk z Zespołu Zarządzania Wiedzą w Obszarze Cyberbezpieczeństwa NASK, koordynatorka przewodnika.
Media zagrożone jak nigdy
Twarze znanych dziennikarzy, np. prezenterów telewizyjnych, są wykorzystywane w kampaniach cyberprzestępców. Najczęściej to oszustwa inwestycyjne czy manipulacje związane ze zdrowiem lub o zabarwieniu politycznym. Wizerunek znanej osoby ma uwiarygodnić przekaz. A dzisiejsze możliwości, jakie daje sztuczna inteligencja sprawiają, że czasem naprawdę trudno odróżnić film, który przygotowała AI dla cyberprzestępców, od rzeczywistych reklam.
Jak podała Alicja Martinek, z Zakładu Nauki o Danych w NASK, od czerwca 2024 r. zidentyfikowano już ponad 13 tysięcy fałszywych materiałów i ponad 380 przypadków wykorzystywania wizerunków osób publicznych do promowania fałszywych ofert w internecie.
Jak rozpoznać deepfejki
W przewodniku można znaleźć garść konkretów dotyczących właśnie deepfejków. Jak je rozpoznać, nie mając odpowiednich narzędzi?
Ekspertki NASK radzą, by analizować przekaz na kilku poziomach jednocześnie – obrazu, dźwięku i treści. W warstwie wideo uwagę powinny zwrócić dziwne elementy wokół ust i kącików twarzy, wynikające z tzw. “lip-sync”, czyli animowania ust tak by wypowiadały konkretne słowa. Często pojawia się wrażenie „maski” naklejonej na twarz, nienaturalne ruchy dłoni czy nawet… niewłaściwa liczba palców.
Tło bywa rozmyte lub zupełnie niepasujące do reszty kadru. W dźwięku można usłyszeć zmiany akcentu, nienaturalnie równe tempo, brak zająknięć i pauz typowych dla żywej wypowiedzi. Treść z kolei bywa nielogiczna, pozbawiona kontekstu kulturowego albo pełna błędów językowych charakterystycznych dla materiałów generowanych za granicą. Jeśli powszechnie znana postać publiczna mówi rzeczy zbyt sensacyjne, zbyt atrakcyjne lub po prostu „nie w jej stylu” –również jest to silny sygnał ostrzegawczy.
Sztuczna inteligencja – pomoc i pułapka
Pracę newsroomów coraz częściej duże modele językowe (LLM), takie jak popularne chatboty. Potrafią one streścić dokumenty, podpowiedzieć konteksty, a nawet przygotować szkice tekstów. Eksperci NASK podkreślają jednak, że narzędzia te wymagają krytycznego podejścia.
– Modele językowe, na których oparte są platformy AI, nie rozumieją świata. Opowiadają statystyką języka, a nie faktami – przypomniała dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w NASK i kierowniczka projektu HIVE AI, w ramach którego rozwijane są polskie modele językowe PLLuM.
W praktyce oznacza to, że systemy generatywne potrafią tworzyć informacje, które wyglądają i brzmią wiarygodnie, ale są całkowicie nieprawdziwe. Język, którym posługują się chatboty mogą utrwalać stereotypy czy nieświadomie wbudowywać w odpowiedzi narracje obecne w danych, na których były trenowane. Dochodzą do tego kwestie prywatności – informacje, które przekazujemy modelom językowym, mogą być przetwarzane poza Unią Europejską. Nie wiadomo więc, gdzie dokładnie te dane trafiają. Problemem sztucznej inteligencji wciąż pozostaje halucynowanie, wypełnianie luk niewiedzy nieprawdziwymi informacjami.
– AI niechętnie przyznaje się do niewiedzy – mówiła dr Karlińska.
Fundamenty cyberbezpieczeństwa
Ekspertki NASK zwróciły także uwagę na potrzebę edukacji cyfrowej wśród dziennikarzy. Chodzi o codzienne praktyki redakcji, od silnych haseł do zabezpieczenia urządzeń i ochrony źródeł, po rozwagę przy korzystaniu z poczty czy mediów społecznościowych. To właśnie proste czynności najczęściej decydują o tym, czy atak uda się powstrzymać. To, co zagraża wszystkim użytkownikom sieci, dotyczy również codziennej pracy mediów.
– Każdy z nas dostał choć jednego podejrzanego maila lub SMS-a. Nie możemy przechodzić obok tego obojętnie – podkreślała Anna Kwaśnik, kierowniczka Zespołu Zarządzania Wiedzą w Obszarze Cyberbezpieczeństwa w NASK.
NASK zachęca organizacje do regularnych szkoleń, wymiany doświadczeń i rozmów o bezpieczeństwie w redakcjach, regularnie – nie tylko od święta.
W przewodniku można też znaleźć m.in. gotowe procedury reagowania na incydenty. Publikacja jest bezpłatna – można ją pobrać, wykorzystać podczas planowania polityki bezpieczeństwa i dzielić się nią wewnątrz zespołów.
Nowe technologie zmieniają sposób pracy mediów. Dlatego, jak podkreślają autorzy przewodnika, świadomość i weryfikacja stają się dziś ważniejsze niż kiedykolwiek. To również jedyna skuteczna metoda obrony przed masową dezinformacją i cyfrowymi nadużyciami.
Przewodnik można pobrać na stronie NASK.
5 pytań, które warto sobie zadać przed kliknięciem
Czy usta poruszają się naturalnie?
Jeśli mimika nie pasuje do wypowiadanych słów lub tworzy się „ciemna dziura” zamiast jamy ustnej – to może być manipulacja.
Czy głos brzmi jak człowiek?
Sztuczna inteligencja często „połyka” końcówki, nie robi naturalnych pauz i nagle zmienia akcent.
Czy treść pasuje do osoby, która ją mówi?
Jeśli prezydent reklamuje inwestycje w kryptowaluty, a celebryta tłumaczy politykę zagraniczną – coś jest nie tak.
Co z tłem i szczegółami?
Dodatkowe palce, niewyraźne kontury, zamazane uszy, „płynące” włosy – to klasyczne sygnały deepfejku.
Co każe mi kliknąć dalej?
Sensacja? Obietnica szybkiego zysku? Nagła presja czasu? To ulubione narzędzia oszustów.