Zamiast domagać się, żeby Facebook sam się regulował i cenzurował nasze wiadomości czy posty, lepiej uświadomić sobie, że korporacje, które opierają się na zysku i są poza demokratyczną kontrolą, nie powinny mieć prawa i publicznego przyzwolenia na to, aby cenzurować nam internet - mówi dr Michał Kosiński, psycholog społeczny i data scientist z Uniwersytetu Stanforda.
Zamiast domagać się, żeby Facebook sam się regulował i cenzurował nasze wiadomości czy posty, lepiej uświadomić sobie, że korporacje, które opierają się na zysku i są poza demokratyczną kontrolą, nie powinny mieć prawa i publicznego przyzwolenia na to, aby cenzurować nam internet - mówi dr Michał Kosiński, psycholog społeczny i data scientist z Uniwersytetu Stanforda.
dr Michał Kosiński, psycholog społeczny i data scientist z Uniwersytetu Stanforda. Jako pierwszy na świecie opublikował badania na temat technologii, która pozwala przewidywać osobowość i inne cechy psychologiczne na podstawie facebookowych lajków
Co mówią o nas nasze cyfrowe ślady i aktywność na portalach społecznościowych?
O wiele więcej niż nam się wydaje. Ludzie są już chyba świadomi tego, że np. kiedy kupują w internecie pieluchy, to wiadomo, że mają dzieci. Albo, że jeśli odwiedzają stronę danego polityka i przelewają pieniądze na jego kampanię, to będzie wiadomo, jakie są ich poglądy polityczne. Ale coś z czego ludzie nie zdają sobie jeszcze często w pełni sprawy, to że z tych powierzchownych śladów cyfrowych można dowiedzieć się o nich wiele więcej. Możesz nigdy nie wypowiadać się na tematy polityczne w internecie, nie odwiedzać stron polityków, ale z twoich śladów cyfrowych, książek które kupujesz w sieci, z historii zakupów spożywczych, filmów, które oglądasz, muzyki, jakiej słuchasz, można dowiedzieć się, jakie masz poglądy. Można też określić twoją osobowość, poziom inteligencji, wyznanie religijne, orientację seksualną, historię rodzinną lub stwierdzić, czy jesteś w związku, czy też nie, albo czy twoi rodzice się rozwiedli. Ślady cyfrowe to tylko wierzchołek góry lodowej. Jeśli połączy się je z algorytmami, to można się o tobie dowiedzieć więcej, niż ty sam o sobie wiesz.
W internecie można znaleźć na pana temat różne informacje. Na przykład, że był pan ojcem chrzestnym sukcesu wyborczego Donalda Trumpa z 2016 r. albo, że Cambridge Analytica chciała pana niegdyś podkupić… Jak to było naprawdę?
To niejedyna pomyłka. Ktoś z Cambridge Analytica opowiadał historie, że chcieli mnie zatrudnić i oferowali mi milion dolarów, ale to było dla mnie za mało. W rzeczywistości, nikt nigdy nie złożył mi takiej oferty. A gdyby złożył, to kto wie? (Śmiech.) Chciałbym myśleć, że powiedziałbym: „Nie, nie ma mowy!”. Ale jako student doktorancki zarabiałem kilkaset dolarów miesięcznie, a w tamtym czasie nie wiadomo było jeszcze, że firma ta w przyszłości zajmie się manipulacjami oraz obsługą Teda Cruza i Donalda Trumpa.
W rzeczywistości dane zbierał dla nich Aleksandr Kogan. A ponieważ miał on nazwisko i pochodzenie wschodnio-europejskie, to wielu dziennikarzom zlaliśmy się w jedna osobę. Kogan, Kosinski – to samo! (śmiech). Należy też pamiętać, że oni nie przyszli do Kogana w 2014 r. i nie zaproponowali mu, aby pomógł im wybrać Trumpa na prezydenta. W tamtym czasie zapewne nie wiadomo było jeszcze, czym ta firma będzie się zajmować. Więc Kogan najprawdopodobniej nie wiedział, za co się zabiera.
Pańskie badania ujawniły za to metody, jakimi posługuje się Facebook, żeby gromadzić dane swoich użytkowników.
My nie jesteśmy klientami Facebooka. Nie płacimy za korzystanie z portalu, czyli to nie my jesteśmy klientem. Firmy marketingowe płacą Facebookowi za dostęp do naszych gałek ocznych i to one są klientem Facebooka. My jesteśmy towarem, który Facebook sprzedaje. Ludzie często o tym zapominają.
A żeby dobrze nas sprzedać, Facebook obserwuje nasze zachowanie w sieci. Patrzy na to, co lubimy, czego nie lubimy, o czym rozmawiamy w swoich prywatnych wiadomościach, a później wykorzystuje się tę wiedzę, żeby dostarczyć nam i rozrywkę, i reklamy. To co zrobiła Cambridge Analytica, to jest mniejsza wersja tego, co na co dzień robią Facebook, Google i inni technologiczni giganci, których biznesem jest obserwowanie naszego zachowania i dobieranie wyników wyszukiwania, kontentu i reklam.
W 2012 r. Facebook opatentował technologię, później wykorzystaną przez Cambridge Analytica, która pozwala przewidzieć osobowość i inne cechy psychologiczne na podstawie Facebookowych lajków. W tamtym czasie dziennikarze, naukowcy i urzędnicy nie chcieli wierzyć, że takie rzeczy są możliwe. Wszystkim wydawało się, że nie ma się czego obawiać, że takie cechy można przewidzieć tylko za pomocą testów psychologicznych. W naszych badaniach w 2013 r. pokazaliśmy, że jest to możliwe i trzeba poważnie traktować zagrożenia dla prywatności wynikające z patentu Facebooka i jemu podobnych. Nasze badania stały się całkiem popularne, wiele gazet rozpisywało się, jak to teraz można przewidywać osobowość z Facebookowych lajków, ale nikt nie brał na poważnie naszych ostrzeżeń: że poza zaletami takiej technologii, ma też ona swoje poważne wady.
Są jakieś zalety?
Oczywiście! Dzięki takim technologiom można na przykład zaoferować ludziom tanie i dokładne narzędzia pomiaru psychologicznego, które dzisiaj dostępne są tylko dla tych, których stać na terapeutę lub psychologa. Można wyobrazić sobie aplikacje, które – chroniąc dane użytkowników – mogłyby jednocześnie śledzić ich stan zdrowia i nastrój oraz wspomagać ich w poprawie stylu życia czy pracy. Czy też pomóc ludziom znaleźć dobrą pracę, dobrego terapeutę, studia, które będą dla nich najciekawsze. Sami użytkownicy mogliby korzystać z narzędzia analizującego ich dane, po czym dostawaliby komunikat, że może powinni np. zmienić tryb życia, mniej pracować albo pracować więcej.
Facebook nie zaoferował jednak takiego narzędzia. I tu pojawiają się wady…
Zalety tej technologii: jej niski koszt i praca „w tle” – czyli potencjalnie bez wiedzy użytkownika – są też jej największymi wadami. Firmy takie jak Facebook, Google, czy Cambridge Analytica mogą dowiedzieć się o nas tak dużo bez naszej zgody i wiedzy. Na szczęście, Cambridge Analytica to byli nowicjusze niezdający sobie sprawy z tego, że nikt nie chce wiedzieć, jak się taką kiełbaskę robi i publicznie przyznali się do stosowanych przez siebie metod. Dzięki temu świat się obudził.
Świat obudził się też dlatego, że kiedy w 2016 r. Hillary Clinton przegrała wybory prezydenckie, to potrzebny był jakiś kozioł ofiarny. A algorytmy są wspaniałym kozłem ofiarnym. Do wygranej Trumpa na pewno przyczyniła się w pewnej mierze też Cambridge Analytica. Jednak Hillary Clinton wydała cztery razy więcej pieniędzy na usługi podobnych firm. Nie mówiąc już o tym, że wielu ludzi z Cambridge Analytica swoje szlify zdobywało podczas kampanii wyborczej Obamy, który był pionierem algorytmicznego marketingu. Wtedy wszyscy byli dumni, że wreszcie ktoś dostosowuje polityczne komunikaty do profilu psychologicznego odbiorcy. Kiedy robił to Obama, nikomu to nie przeszkadzało.
Brzmi pan, jakby bronił Cambridge Analytica.
Przez wiele lat zajmowałem się badaniami pokazującymi niebezpieczeństwa wypływające z działań firm takich jak Cambridge Analytica. Pracowałem też z brytyjską gazetą „The Guardian” nad pierwszym artykułem opisującym nieetyczne działania tej firmy. Ale przecież to nie jest jedyna taka firma. To nie jest tak, że jak Cambridge Analytica się zamknęła, to problem znika. Jest cała gospodarka online i giganci technologiczni, których model biznesowy opiera się na tym, żeby takie predykcje robić. Niewiele się poprawiło – a firmy i rządy są teraz dużo ostrożniejsze, jeżeli chodzi o dzielenie się informacjami na temat tego, co robią z naszymi danymi.
Zastanawiam się, czy kiedy już zdajemy sobie sprawę z tego, że treści, które widzimy w internecie, są dopasowywane po przeanalizowaniu naszych śladów cyfrowych, to jesteśmy w stanie oprzeć się takiej perswazji.
Świadomość zagrożeń może nas jednak zmotywować do tego, by się edukować i weryfikować informacje.
Czy mechanizmy perswazji, z którymi na co dzień stykamy się w internecie, są w jakimś stopniu odpowiedzialne za głębokie podziały społeczne? Może nie zdajemy sobie sprawy z tego, że coraz bardziej zamykamy się w naszych bańkach informacyjnych, a przy tym radykalizujemy, czytając tylko to, co wygląda dla nas bardzo miło.
W pewnym stopniu tak. Kiedy jednak obserwuje się takie procesy, to trzeba patrzeć na całościowy wynik. W przypadku portali społecznościowych na każdą zradykalizowana osobę, przypada wielu, którzy z radykalnej studni dali się wyciągnąć. Zamiast patrzeć na Twittera, popatrzmy na statystki: świat jest daleki od perfekcji, ale z każdym rokiem mamy więcej wolności, więcej równouprawnienia, mniej rasizmu. Co więcej, partie lewicowe i prawicowe są dziś o wiele bardziej zbliżone światopoglądowo niż niegdyś. Nasza frustracja często wynika z tego, że nasze standardy rosną szybciej niż rzeczywistość. A czasem robimy dwa kroki w przód, a jeden wstecz.
Teraz z kolei brzmi pan jak obrońca Facebooka.
Pewnie. Zajmuję się głównie badaniem i opisywaniem zagrożeń wynikających z tej i innych platform, ale nie zapominam o tym, że zdecydowana większość społecznych konsekwencji ich istnienia jest pozytywna. Jesteśmy dużo lepiej połączeni ze sobą niż kiedyś, możemy łatwiej komunikować się poza kontrolą podsłuchujących nas rządów, możemy czytać artykuły z całego świata. Jest dużo więcej różnorodności! Jesteśmy tylko o jedno kliknięcie od każdego kąta internetu. Naturalnie większość ludzi nadal siedzi w swojej bańce, ale wielu z nas czasem z tej bańki wygląda na szerszy świat. To niesamowita zaleta nowych technologii i nie powinniśmy o tym zapominać, rozmawiając o zagrożeniach. Żebyśmy przypadkiem nie wylali dziecka z kąpielą i nie zakazali sobie technologii, dzięki którym świat jest dzisiaj dużo lepszy niż 10, 15 czy 20 lat temu.
Czyli lepiej mądrze regulować?
Zamiast domagać się, żeby Facebook sam się regulował i cenzurował nasze wiadomości czy posty, lepiej uświadomić sobie, że korporacje, które opierają się na zysku i są poza demokratyczną kontrolą, nie powinny mieć prawa i publicznego przyzwolenia na to, aby cenzurować nam internet. Powinniśmy domagać się, żeby to instytucje publiczne zajęły się decydowaniem o tym, co można w sieci publikować, a czego nie.
Nie obawia się pan czasami, że pana badania posłużą do złych celów?
To jest bardzo ważne pytanie. Zajmuję się testowaniem istniejących technologii oraz wyszukiwaniem i opisywaniem ich zalet i zagrożeń. Wydaje mi się, że społeczeństwo, ustawodawcy i firmy technologiczne powinni wiedzieć, jakie potencjalnie pozytywne i negatywne skutki mają te technologie dla społeczeństwa.
Nie boi się pan jednak, że kiedy publikuje pan badania np. o tym, że na podstawie zdjęcia profilowego na Facebooku można określić orientację seksualną użytkownika, to jakiś rząd uzna, że to świetny pomysł i postanowi to wykorzystać?
Oczywiście, że się tego obawiam! Wydaje mi się jednak, iż jest to ryzyko, które warto podejmować. Pozwalamy rządom i społeczeństwom przygotować się na takie zagrożenia. Ponadto, firmy i służby wywiadowcze są i tak kilka kroków przed nami – dla nich to nie są nowe informacje.
Co nie znaczy, że nie należy się starać minimalizować ryzyka, że ktoś naszą pracę źle wykorzysta. Przed publikacją artykułów informuję o wykrytych przez siebie zagrożeniach odpowiednie instytucje i firmy, których zagrożenia te dotyczą. I daje to pewne efekty. Na przykład w trakcie pracy nad artykułem o przewidywalności cech psychologicznych z Facebookowych lajków, powiadomiłem o moich wynikach Facebooka. W efekcie zmienili oni ustawienia prywatności, znacznie ograniczając późniejsze szkody spowodowane przez firmy takie jak Cambridge Analytica. Kiedy publikowałem badania pokazujące, że technologia rozpoznawania twarzy pozwala określić poglądy polityczne czy orientację seksualną na podstawie zdjęć profilowych, dostęp do takich zdjęć był całkowicie publiczny na Facebooku i wielu innych platformach. Po publikacji artykułu większość liczących się firm zmieniła zasady prywatności dotyczące zdjęć profilowych, znacznie zwiększając bezpieczeństwo miliardów użytkowników.
Nagłaśnianie zagrożeń, jakie niesie za sobą technologia ma swoje wady i zalety. Często stajemy przed trudnymi wyborami.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Reklama
Reklama