Sztuczna inteligencja (Artificial Intelligence, AI) oraz transhumanizm ponownie są w modzie. I coraz częściej dyskutowane na poważnie – jako jedne z najważniejszych składowych dalszego rozwoju ludzkości. Warto te zagadnienia poznać.
Nick Bostrom, „Superinteligencja. Scenariusze, strategie zagrożenia”, Helion/OnePress, Gliwice 2016 / Dziennik Gazeta Prawna
„Superinteligencja...” świetnie się do tego nadaje. Napisał ją Nick Bostrom, szwedzki filozof kierujący prestiżowym Instytutem Przyszłości Ludzkości na Uniwersytecie Oksfordzkim. Bostrom zebrał w jednym miejscu wszystko, co o aktualnym stanie transhumanistycznych debat wiedzieć należy. Tekst wyszedł gęsty i nie udaje, że temat to kaszka z mleczkiem strawna dla każdego przedszkolaka. Z drugiej jednak strony autorowi udało się nie utracić kontaktu z czytelnikiem. Który nawet jeśli momentami nie wszystko pojmuje, to nie ma wrażenia, że został przez Bostroma porzucony.
„Superinteligencja” jest skonstruowana przejrzyście. Zaczynamy od zapoznania się z aktualnym stanem badań. I od razu dostajemy odpowiedź na kluczowe pytanie: nie, Amerykanom, Niemcom, Japończykom ani Chińczykom nie udało się jak dotąd stworzyć sztucznej inteligencji. Owszem, istnieją maszyny, które przewyższają człowieka w zdolnościach arytmetycznych, umieją wyprowadzać skomplikowane twierdzenia logiczne albo ograć ludzi w szachy i warcaby (choć w pokera już nie). Ale jak na razie nikomu nie udało się zbudować niczego, co by przypominało ludzką inteligencję, która potrafi łączyć rozbudowane umiejętności poznawcze, myślenie na wysokim poziomie abstrakcji i zdolność do rozwiązywania złożonych problemów.
Jednocześnie Bostrom stawia tezę, że jest wysoce prawdopodobne, że jeszcze w tym stuleciu taką superinteligencję uda się zbudować. Dlaczego? Bo jest to cel, do którego wiedzie nie jedna, tylko przynajmniej kilka niezależnych dróg. AI może bowiem przybrać różne formy. Może być superkomputerem, który dzięki stałemu rozwojowi potencjału obliczeniowego będzie w stanie rozwiązywać coraz bardziej złożone problemy. Ale to tylko jedna z dostępnych form. Inną jest tzw. emulacja mózgu. Czyli tak dokładne odwzorowanie mapy neuronowej człowieka, że uda się ją wreszcie zreplikować, a potem udoskonalać (człowieka też teoretycznie można by udoskonalać, ale stoją temu na drodze wątpliwości natury moralnej). Jeszcze inny pomysł na budowę superinteligencji to jakaś forma szerokopasmowej współpracy komputera z ludzkim umysłem. Coś na wzór stosowanych już dziś w medycynie sposobów na radzenie sobie z niektórymi chorobami poprzez mechaniczne drażnienie konkretnych partii mózgu w celu uzyskania pożądanych efektów. Można sobie wreszcie wyobrazić rodzaj superinteligencji kolektywnej. Czyli łączenie wielu ludzkich umysłów w jeden. Notabene ten ostatni pomysł wydaje się najmniej przerażający i w pewnym sensie stanowi rozwinięcie takich wynalazków jak druk czy internet.
W drugiej części książki dostajemy z kolei opis możliwych skutków wynalezienia AI. Bo jak słusznie zauważył kiedyś brytyjski geniusz matematyczny Alan Turing: „Trzeba zdawać sobie sprawę, że opracowanie przepisu na superinteligencję będzie jednocześnie ostatnim wynalazkiem, jakiego dokona ludzkość”. Supermózg zacznie wszak tak dalece górować nad naszymi mózgami, że zostawi je daleko w tyle. Idzie tu nie tylko o to, by zabezpieczyć się na wypadek, gdyby superinteligencja miała się urwać ze smyczy swojemu stwórcy. To wszak problem od dawna napędzający sporą część literatury futurologicznej. Jednak nie mniej kluczowe jest pytanie, jak podzielić się komercyjnymi i cywilizacyjnymi zyskami postępu, który superinteligencja ze sobą przyniesie? Biorąc pod uwagę społeczną historię ludzkości (a zwłaszcza kapitalizmu), nie jest to pytanie bezzasadne.

Kup w kiosku lub w wersji cyfrowej