Prof. dr hab. Jakub Growiec był gościem studia Dziennika Gazety Prawnej na Europejskim Forum Nowych Idei w Sopocie. Naukowiec mówił o rozwoju sztucznej inteligencji, związanych z tym zagrożeniach i wyścigu rozgrywanym między Stanami Zjednoczonymi a Chinami, który, jak ocenił, prowadzi do katastrofy.
AI poza kontrolą
Rozmowę rozpoczęło pytanie: „Jak szybko sztuczna inteligencja nas zabije", a po nim drugie, dające nieco optymizmu: „Czy jest szansa na to, że unikniemy zagłady?".
Według prof. Growca jest taka szansa, ale istnieje ogromne zagrożenie, że błyskawicznie rozwijająca się technologia zostanie wykorzystana do niecnych celów, a co jeszcze bardziej niebezpieczne – ludzkość straci nad nią kontrolę.
– To jest bardzo realne – ostrzega prof. Jakub Growiec i podkreśla, że obecnie świat nie widzi barier, które mogłyby ograniczyć rozwój sztucznej inteligencji.
Wyścig technologiczny i geopolityczny
Nie widać też żadnych sygnałów, by ludzkość chciała zjednoczyć się w działaniu, które spowolniłyby rozwój AI. Prof. Growiec mówi wręcz o samobójczym wyścigu technologicznym, który już przerodził się w wyścig geopolityczny między USA a Chinami, co prowadzi do nieroztropnych działań, bez uwzględnienia czynników bezpieczeństwa.
Za chwilę jako ludzkość możemy znaleźć się w sytuacji, w której samokształcące się modele informatyczne będą żądne... władzy. Będą chciały mieć jak najwięcej kontroli nad swoim otoczeniem, będą chciały się rozpowszechniać.
Ostatni moment na zastanowienie
– Jesteśmy na dobrej drodze, by wyhodować sobie konkurenta. W tej chwili wydaje się, choć nie ma pewności, że mamy kontrolę, że jeszcze potencjalnie moglibyśmy zarzucić badania nad dalszym rozwojem sztucznej inteligencji, ale zbliża się wielkimi krokami moment, kiedy to nie będzie już możliwe – ostrzega prof. Jakub Growiec. – A może to być już za dwa lata, może pięć lub dziesięć. To nie wydarzy się za 20 czy 100 lat – zastrzega prof. SGH.
Czy AI się nami zaopiekuje
O tym, jak świat ma wyglądać potem, mówią trzy wizje. Jedna zakłada, że będzie podobnie jak teraz, co według naukowca jest niemożliwe. Druga to katastrofa (najbardziej prawdopodobna), sztuczna inteligencja przeczytała już wszystkie książki i obejrzała wszystkie filmy SF, więc wie, jak unicestwić ludzkość. W wizji utopijnej AI się nią (nami) zaopiekuje.