Profesor Jakub Growiec został zaproszony do udziału w rozmowie w ramach EFNI Talks „Transformatywna AI: utopia, zagłada czy normalna technologia?”.

Jak powiedział naukowiec, z jednej strony wiele osób sądzi, że AI jest po prostu normalną technologią, konsekwencje jej zastosowania będą ograniczone, a wpływ na światową gospodarkę – niewielki. Z drugiej jednak strony pojawiają się głosy, że może być źródłem utopii albo dystopii, albo w ogóle końca ludzkości.

– Kiedy słucham wypowiedzi tu, na Europejskim Forum Nowych Idei, wszyscy wydają się pewni, że to technologia jak każda inna. Na zawsze utrzymamy nad nią kontrolę i na pewno nam nie zagrozi. Taka opinia nie uwzględnia jednak charakterystyki tej technologii i tego, jak szybko się rozwija – stwierdził prof. Jakub Growiec.

Kto opóźnia rozwój gospodarczy? Ludzie

Naukowiec zaznaczył, że wcześniejsze modele sztucznej inteligencji działały w poszczególnych obszarach zadań, ale te najnowsze są coraz bardziej ogólne – potrafią rozwiązać coraz szersze spektrum różnych problemów. Są też, jak powiedział profesor, coraz bardziej sprawcze, mogą realizować więcej zadań w dłuższej perspektywie. Jak ocenił, do tej pory nie mieliśmy do czynienia z tak dużą niepewnością co do tego, jak będzie się kształtował światowy PKB w najbliższych 20–30, a nawet 10 latach.

– W przypadku pełnej automatyzacji pracy, dzięki transformatywnej AI, ludzie i maszyny staliby się substytucyjni, co oznacza, że konkurowaliby między sobą wyłącznie ceną. Współwystępowanie i wzajemne wzmacnianie jest mało prawdopodobne. Gdyby usunąć wąskie gardło, którym jesteśmy my – ludzie, w rozwoju gospodarczym – wzrost PKB mógłby przyspieszyć – zaznaczył prof. Growiec.

Jeśli każde zadanie może zostać w pełni zautomatyzowane, a kluczowym parametrem potencjalnego zatrudnienia będzie cena pracy, ludzie przegrają taką rywalizację, bo kompetencje AI rosną znacznie szybciej niż nasze.

AI w spirali samoulepszeń i czarny scenariusz

Według prof. Growca sztuczna inteligencja może wpaść w „spiralę rekursywnych samoulepszeń” – kaskadę działań, w ramach których wymyśli kolejne sposoby, żeby być jeszcze bardziej efektywną.

– Jeśli rzeczywiście mówimy serio o kaskadzie samoulepszeń, prowadzi nas to do tzw. eksplozji inteligencji. Kiedy zatem powstanie transformatywna AI? Szybciej, niż nam się wydaje. Największe firmy z tego obszaru, np. Open AI, przewidują, że już w tej dekadzie, do 2030 r. – wskazuje prof. Growiec.

Według eksperta SGH zasadne jest jednak nie tylko pytanie o przyszłość rynku pracy, tego, jak się będzie rozwijał, lecz także o bardziej fundamentalną kwestię – czy AI nas nie zabije.

– Wiele osób, bardzo poważnych, łącznie z jednym z ojców AI, zeszłorocznym noblistą w dziedzinie fizyki Geoffreyem Hintonem, mówi, że prawdopodobieństwo katastroficznego scenariusza, w którym albo cała ludzkość wyginie, albo zostanie zdziesiątkowana, a ci, którzy przeżyją, będą bez wpływu na przyszłość własną i cywilizacji na Ziemi, jest bardzo wysokie – mówi prof. Growiec.

Według Hintona scenariusz zagłady jest prawdopodobny w 50 proc.

– Liderzy branży, którzy bardzo intensywnie tę technologię rozwijają, sami mówią, że to, co robią we własnej firmie, jest graniem w rosyjską ruletkę z całą ludzkością. Ryzyko zagłady na 10–25 proc. oceniają Sam Altman z Open AI oraz Elon Musk – podkreśla naukowiec.

Dodał, że powstające dzisiaj modele sztucznej inteligencji to bardzo skomplikowane czarne skrzynki, które mają miliardy parametrów w sztucznej sieci neuronowej. Laboratoria AI programują tylko proces uczenia, ale absolutnie nie wiedzą, co z tego procesu wyniknie.

– Coś powstaje, a dopiero później patrzymy, czy to „coś” może nam zagrozić – podsumował prof. Growiec.

Rozwój AI wymaga korekty

Wszystko to prowadzi do wniosku, że należy proaktywnie zapobiegać ryzyku niekontrolowanego rozwoju sztucznej inteligencji. Do tego potrzebna jest koordynacja działań na skalę ogólnoświatową; niestety na razie jest obserwowany jedynie wyścig zbrojeń Stanów Zjednoczonych z Chinami.

– Niezbędne wydaje się lobbowanie na rzecz niezwłocznego zahamowania rozwoju nie w ogóle AI, lecz najbardziej zaawansowanych, ogólnych modeli sztucznej inteligencji, wszystkiego, co się rozwija na bazie GPT, OpenAI, Cloud, Entropy czy Google Gemini. Mam na myśli także modele OpenSource, bo one nie tylko stwarzają ryzyko utraty kontroli, lecz także wykorzystania przez reżimy autorytarne czy terrorystów – mówił naukowiec.

Profesor Jakub Growiec jest autorem i współautorem publikacji naukowych z zakresu ekonomii, laureatem m.in. Nagrody Naukowej „Polityki” w dziedzinie nauk społecznych, a także laureatem Nagrody Narodowego Centrum Nauki w 2020 r. Jego publikacje dotyczą m.in. wzrostu gospodarczego i postępu technologicznego w długim okresie.

AP
belka efni
ikona lupy />
Materiały prasowe