Sztuczna inteligencja to szansa czy zagrożenie dla gospodarki? Jaki wpływ na jej rozwój mogą mieć regulacje prawne? Dyskutowali o tym eksperci podczas panelu „Czas Sztucznej Inteligencji”, który odbył się podczas konferencji zorganizowanej z okazji 35-lecia Krajowej Izby Gospodarczej.
Uczestnicy dyskusji, moderowanej przez Edwina Bendyka – Prezesa Fundacji im. Stefana Batorego, nie mieli wątpliwości, że w krótkiej perspektywie czasowej AI dla gospodarki jest szansą, jednak w długim horyzoncie może rodzić zagrożenia.
– Dziś mamy złoty okres rozwoju sztucznej inteligencji. Jest narzędziem w naszych rękach, dającym dary w postaci rozwoju wielu dziedzin, uprzyjemniania życia. Należy jednak liczyć się z odwróceniem ról, czyli nadejściem czasu, w którym AI zacznie nami zarządzać – definiował Jacek Dukaj, pisarz i publicysta.
Marcin Kosiński, prezes zarządu PKO Finat, dyrektor pionu rozwoju PKO Banku Polskiego, stwierdził, że wcale nie musi być to odległa przyszłość, patrząc na to jak świat dynamicznie się zmienia a także jak przybywa czarnych łabędzi w obszarze nowych technologii. W ostatnim czasie spore zamieszanie wywołała chińska firma DeepSeek, która w grudniu 2024 r. udostępniła swój model sztucznej inteligencji V3, a w styczniu tego roku zaprezentowała ulepszony jej model o nazwie R1. Szybko trafił on do pierwszej dziesiątki najlepiej ocenianych modeli AI. Chińczycy twierdzili, że stworzyli go za nieporównywalnie mniejsze pieniądze w stosunku do tego, co wydają na ten sam cel amerykańskie koncerny. Taka informacja wywołała przeceny akcji na giełdach za Oceanem.
– Sztucznej inteligencji i jej popularyzacji nie da się już zatrzymać. Będzie wpływała na codzienne życie, ekonomikę. Wraz z tym pojawiać się będą nowe wyzwania oraz zagrożenia – powiedział Marcin Kosiński.
Zaznaczył przy tym, że należy dążyć, aby AI była karmiona prawdziwymi danymi. To kluczowe dla jakości wyników jej pracy.
Zadbać o konkurencyjność
Wiele debat związanych z AI toczy się wokół możliwej likwidacji wielu miejsc pracy oraz konieczności rozwoju nowych umiejętności wśród pracowników.
– Kiedy pytam studentów, czy korzystają z kasy samoobsługowej odpowiadają, że tak, bo nie muszą wchodzić w interakcje z kasjerem. Wtedy im uzmysławiam, że to oni przyczyniają się do tego, że potrzeba mniej pracowników w handlu – zauważyła Dota Szymborska, etyczka nowych technologii z Uniwersytetu WSB Merito.
Do tego dochodzi cały obszar cyberbezpieczeństwa, ryzyko wycieku danych, nieautoryzowanego dostępu i niewłaściwego wykorzystania poufnych danych, zagrożenia prywatności.
Jak zauważyli eksperci zagrożeń przybywa wraz z tym, jak rozwija się AI. Co się wydarzy, gdy wejdzie na wyższy poziom? Na te dylematy nakłada się jeszcze układanka geopolityczna.
– Kluczowe jest to, kto wygra bitwę, świat zachodni czy wschodni. To jest kluczowe dla przyszłości AI – wskazał Jakub Turowski, dyrektor ds. polityki publicznej w Meta (należy do niej Facebook), dodając, że sztuczna inteligencja w wielu dziedzinach to już nie rewolucja, lecz ewolucja a jej potencjał pozostaje ciągle niezagospodarowany.
– Przed nami wyzwania związane z utrzymaniem konkurencyjności Europy w globalnym świecie. Dziś nie mamy technologii, która pozwoliłaby nam wyjść na prowadzenie w tym wyścigu. Zgadzam się jednak, że w perspektywie czasu AI może być zagrożeniem – uzupełnił przedstawiciel Meta.
Prawny języczek u wagi
W kreowaniu przyszłości mogą pomóc regulacje prawne. W ocenie wielu ekspertów stają się jednak zbyt rygorystyczne, co może sprawić, że rozwój innowacji w Europie będzie hamowany. Lepszym rozwiązaniem może okazać się tworzenie określonych ram, zamiast ścisłych przepisów. Te ostatnie nie nadążają za szybkim tempem wydarzeń. Widać to szczególnie właśnie na przykładzie sztucznej inteligencji. Najnowsze osiągnięcia Chińczyków sprawiają, że zyskują pozycję równoprawnego rywala dla Ameryki, Europa natomiast tkwi ciągle w roli importera nowych rozwiązań.
Dota Szymborska odniosła się do unijnego Rozporządzenia o Sztucznej Inteligencji (AI Act), którego celem jest między innymi zwiększenie bezpieczeństwa obywateli. Jego pierwsze przepisy zaczęły obowiązywać 2 lutego 2025 r.
– Jestem zwolenniczką rozporządzenia i nie uważam, że z ich powodu staniemy się Europą drugiej prędkości. Etyka powinna iść przed regulacjami. Wracamy do rozmowy na temat tego, czym ma być humanizm i Europa przyszłości – powiedziała, dodając, że AI Act jest czymś w rodzaju konstytucji, gwarantującej Europie prawa ludzkości w rozwijającym się świecie sztucznej inteligencji.
Jakub Turowski stwierdził natomiast, że dziś od pytania o to, jakie ryzyka wiążą się z AI, jest ważniejsze to, co oznacza brak dostępu do nowych technologii. I przypomniał, że gdy nastąpił rozwój telefonii komórkowej, europejskie firmy brały aktywny udział w tym wyścigu.
- Trzeba zadać sobie pytanie, co poszło nie tak, że Europa wrzuciła hamulec w zakresie innowacyjności. Warto też pomyśleć, co należy zmienić, by ten trend się odwrócił – zauważył przedstawiciel Meta, podkreślając, że AI Act nie jest problemem, ale sposób wdrażania przepisów.
– Nie chodzi też o to, by tworzyć w Europie Dziki Zachód, czyli zupełnie rezygnować z tworzenia regulacji. Dziś w zakresie nowych technologii jest ich ponad 100, a w okresie ostatnich pięciu lat mamy do czynienia z prawdziwym tsunami pod względem nowych przepisów w obszarze usług cyfrowych. Wraz z ich tworzeniem powstają kolejni regulatorzy, którzy mają silosowe podejście do rynku. Obecnie we wszystkich państwach członkowskich działa aktywnie w obszarze technologii ponad 270 organów regulacyjnych. Może rozwiązaniem jest stworzenie jednego regulatora cyfrowego, z jednym budżetem, który będzie brał wszystkie punkty widzenia pod uwagę – podkreślił Jakub Turowski.
Na koniec dyskusji eksperci wymienili, co może okazać się czarnym łabędziem w obszarze technologii w nadchodzącej przyszłości. Wśród propozycji pojawiła się superinteligencja, otwarte modele językowe, pierwsze skuteczne zaaplikowanie AI do biotechnologii czy komputery kwantowe.