Jak zachować wolność i pełną kontrolę nad swoim życiem i biznesem w świecie technologii? Jak chronić suwerenność państw w erze AI i coraz doskonalszych dużych modeli językowych (LLM) rozwijanych przez big techy? – na te pytania próbowali odpowiedzieć uczestnicy debat w Polish Business Hub (PBH) podczas Światowego Forum Ekonomicznego w Davos.

Rozwój sztucznej inteligencji budzi z jednej strony nadzieje na poprawę poziomu i jakości życia ludzi, a z drugiej – obawy związane z dominacją technologii w przestrzeniach, które powinny być w pełni kontrolowane przez człowieka, oraz monopolizacją topowych technologii przez kilka megakorporacji. Dlatego twórcy PBH wspólnie z Kingą Piecuch, prezeską zarządu Hewlett Packard Enterprise Polska, zaprosili do dyskusji o rozwoju AI jedną z najbardziej rozchwytywanych osobowości świata technologii – Jonasa Andrulisa, twórcę i szefa Aleph Alpha, niemieckiego start-upu, który od zarania stara się umieszczać w centrum technologii człowieka.

W Davos Jonas Andrulis prezentował przełomową architekturę LLM (dużego modelu językowego), która – jak dowodził – „pozwala zachować kontrolę nad danymi, infrastrukturą i tworzeniem wartości w erze sztucznej inteligencji”.

– Swoim osiągnięciem kładziemy podwaliny pod nową generację suwerennych rozwiązań AI. Umożliwia ono rządom i przedsiębiorstwom tworzenie własnych narzędzi w oparciu o ich języki ojczyste, specyficzne cechy kulturowe oraz specjalistyczną wiedzę i terminologię. W ten sposób zdemokratyzujemy dostęp do technologii i promujemy pluralizm gospodarczy i kulturowy – przekonywał szef Aleph Alpha podczas dyskusji na scenie Polish Business Hub, w której udział wzięli: Keith Strier, wiceprezes AMD, oraz Peter Sarlin, współzałożyciel Silo AI (wszystkie trzy firmy ściśle ze sobą współpracują). Moderowała dr Mandeep Rai, autorka bestsellerowej książki „The Values Compass: What 101 Countries Teach Us About Purpose, Life, and Leadership” (Kompas wartości: czego 101 krajów uczy nas o celu, życiu i przywództwie).

Uwolnić AI, wzmocnić Europę

Jonas Andrulis opowiadał o przełomowym LLM w kontekście geopolitycznym, wskazując, w jaki sposób rządy i organizacje w Europie i poza nią mogą teraz rozpocząć tworzenie własnych suwerennych strategii sztucznej inteligencji oraz jak firmy i państwa mogą poprawić efektywność kosztową, a zarazem zmniejszać swe oddziaływanie na środowisko dzięki nowym, mniej energożernym, LLM-om. Keith Strier podkreślił, że we współpracy Aleph Alpha, AMD i Silo AI chodzi nie tylko o samą sztuczną inteligencję, ale o coś więcej: zapewnienie odporności i przełomowych innowacji dla europejskiego ekosystemu AI.

– Jeśli próbujemy nauczyć popularne duże modele językowe unikatowej wiedzy branżowej, albo nowych języków, daje to mocno niezadowalające rezultaty, albo wręcz kończy się fiaskiem – mówił Jonas Andrulis. Wyjaśnił, że podstawowa przyczyna tkwi w tym, że wzorce, na których uczą się popularne LLM-y, opierają się na tokenizowanej wersji tekstu, na którym zostały wcześniej wytrenowane (patrz: ramka). Jeśli nowy tekst, z którym musi zmierzyć się LLM, jest zasadniczo odmienny od danych treningowych, to nie można go skutecznie tokenizować.

AI dynamicznie zmienia świat nauki i biznesu, a uczelnie stają się kluczowymi graczami w tej transformacji. Ich rola wykracza daleko poza edukację, bo uniwersytety przekształcają się w centra rozwoju deep tech, gdzie start-upy pracują nad przełomowymi technologiami, takimi jak komputery kwantowe czy biotechnologia – powiedział przy okrągłym stole kanclerz Robert Grey

Jak podkreślił Jonas Andrulis, innowacyjna architektura Aleph Alpha nie wymaga tokenizera i tokenizacji, co rozszerza możliwości LLM poza oryginalne dane treningowe. Takie podejście rozwiązuje kluczowy problem z obecnymi architekturami modeli językowych. Najczęściej mogą one bowiem być efektywnie trenowane tylko na danych wykorzystujących tokeny podobne do oryginalnych danych treningowych.

Paneliści pokazali na wykresach, jak bardzo efektywne jest działanie tego rozwiązania w sprzężeniu z najnowszą technologią AMD AI. – Rozwiązanie Aleph Alpha, połączone z akceleratorami AMD Instinct MI300 i zoptymalizowane w otwartym środowisku programistycznym AMD ROCm, pozwala uzyskać znakomitą wydajność generatywnego AI. Duża pojemność pamięci akceleratorów AMD Instinct sprawia, że ta innowacja może działać szybko i efektywnie, zwłaszcza w przypadku języków z małymi zasobami – mówił Jonas Andrulis. Jako przykład podał język fiński, będący dotąd dla wszystkich LLM-ów szczególnie dużym wyzwaniem. Uwagę słuchaczy przykuło niskie zapotrzebowanie nowej technologii na energię oraz jej zdecydowanie mniejsze oddziaływanie na środowisko (o 70 proc. niższy ślad węglowy).

Nowy (lepszy?) świat AI

Zaraz po panelu szef Aleph Alpha zasiadł przy okrągłym stole Polish Business House z przedstawicielami świata nauki, uczelni, biznesu, prawa i administracji, by porozmawiać o tym, jak LLM-y przekształcają krajobraz gospodarczy i społeczny, oraz omówić przypadki zastosowania dużych modeli językowych do zwiększania możliwości rozwoju, wdrażania innowacyjnych rozwiązań, wzmacniania konkurencyjności i uzyskiwania przewagi strategicznej w różnych sektorach i branżach.

Uczestnicy zastanawiali się, na ile AI może napędzać sukces biznesowy, i próbowali oceniać, jak wielki wpływ wywiera sztuczna inteligencja na strategie organizacyjne i dynamikę społeczną. W dyskusji uczestniczyli m.in. prof. Alojzy Nowak, rektor Uniwersytetu Warszawskiego (partner merytoryczny PBH) i kanclerz tej największej polskiej uczelni, Robert Grey, Caitlin Lewis z Longevity Escape Velocity, Philipp T. Kamaryt z Enery, Wiktor Schmidt z Netguru, Rafał Modrzewski z Iceye, Anirudh Sharma z Digantara, Kinga Piecuch, szefowa Hewlet Packard Enetrprise Polska, oraz Pamela Krzypkowska, dyrektorka Departamentu Badań i Innowacji Ministerstwa Cyfryzacji.

Pamela Krzypkowska opowiedziała, jak resort cyfryzacji wspiera rozwój innowacji cyfrowych i AI w Polsce, starając się zidentyfikować potrzeby przedstawicieli nauki, biznesu i administracji publicznej. Przedstawiła wyzwania związane z tworzeniem polskiego LLM-u.

Kinga Piecuch wyjaśniła, dlaczego HPE stało się partnerem projektu Aleph Alpha. Wspomniała też m.in., że w dotychczasowych realiach, zanim pojawiła się przełomowa architektura LLM firmy Jonasa Andrulisa, nie wszyscy klienci biznesowi wyrażali zainteresowanie rozwijaniem LLM-ów. – Niektórzy preferują SLM, czyli małe modele językowe, wychodząc z założenia, że właśnie one lepiej zaspokoją ich potrzeby przy znacznie mniejszym zaangażowaniu zasobów – zauważyła szefowa HPE Polska (patrz: ramka).

Kanclerz Robert Grey mówił m.in., że AI dynamicznie zmienia świat nauki i biznesu, a uczelnie stają się kluczowymi graczami w tej transformacji. Ich rola wykracza daleko poza edukację, bo uniwersytety przekształcają się w centra rozwoju deep tech, gdzie start-upy pracują nad przełomowymi technologiami, takimi jak komputery kwantowe czy biotechnologia. Współpraca z sektorem przemysłowym oraz silne zaplecze badawcze sprawiają, że uczelnie stają się nie tylko inkubatorami innowacji, lecz także bezpośrednimi uczestnikami gospodarki przyszłości.

– Nie możemy też pominąć wpływu AI na zrównoważony rozwój. Już teraz technologie sztucznej inteligencji wspierają walkę z kryzysem klimatycznym, optymalizują zużycie energii, poprawiają efektywność systemów zarządzania miastami i wspierają działania na rzecz redukcji nierówności społecznych. To dowód na to, że AI może być nie tylko narzędziem biznesowym, lecz także siłą napędową dla projektów społecznych i dobra wspólnego – podkreślił kanclerz UW, zastrzegając, że w centrum wszystkich tych działań musi zawsze być człowiek.

Słowniczek: LLM, SLM i waga tokenów

LLM, czyli duże modele językowe, to zaawansowane algorytmy sztucznej inteligencji rozumiejące, przetwarzające, przewidujące i generujące treści przypominające naturalny język ludzki. Szkoli się je na zbiorach danych, zawierających wielkie ilości słów z różnych źródeł; szkolenie jest zazwyczaj wieloetapowe, a najbardziej zaawansowaną formą jest tzw. deep learning.

W świecie AI LLM-y pełnią podobną rolę jak ludzkie języki mówione rozwijanie od tysięcy lat – stanowią fundament komunikacji i tworzenia nowych idei i koncepcji. Wykorzystują różnorakie techniki do wnioskowania o zależnościach i na podstawie wyuczonych danych generują nowe treści. Pierwszy model językowy AI powstał w 1966 r. w MIT, te współczesne rozwijane są od połowy poprzedniej dekady w oparciu o sieci neuronowe (zwane transformerami). Taka architektura pozwala im błyskawicznie rozumieć pytania i tworzyć odpowiedzi, co umożliwia wykorzystywanie AI w różnych obszarach i dziedzinach.

Deep learning odbywa się w sieci neuronowej transformera i pozwala modelowi językowemu zrozumieć treści oraz rozpoznawać zależności i powiązania między słowami. W klasycznym LLM wynik wnioskowania, zwany wagą, jest przypisywany konkretnemu elementowi, zwanemu tokenem. LLM-y są wykorzystywane m.in. do tworzenia tekstów na dowolny temat, tłumaczenia tekstów, generowania analiz, omówień i podsumowań większych treści, tworzenia klasyfikacji i kategoryzowania treści, napędzania chatbotów najnowszej generacji, takich, jak ChatGPT firmy OpenAI. Główną wadą LLM-ów jest ryzyko generowania niepoprawnych wyników (tzw. halucynowanie), wyzwaniem też są koszty infrastruktury.

SLM, czyli małe modele językowe, mają nieporównywalnie mniejsze możliwości i są mniej wszechstronne niż LLM-y, ale – szkolone na mniejszych i bardziej ukierunkowanych zestawach danych – mogą być znacznie trafniej dostosowane do indywidualnych potrzeb danego klienta (przedsiębiorstwa) lub sektora (np. prawnego). Pozwala to zredukować ryzyko błędów i niedokładności, poprawia trafność i dokładność wyników. Koszty infrastruktury i zarządzania są znacznie niższe niż przy LLM-ach.

Partnerzy relacji

ikona lupy />
Materiały prasowe