W ostatnich miesiącach często wyolbrzymiano skutki wdrożenia generatywnej sztucznej inteligencji. To trochę absurdalne, że ludzie natychmiast zakładają najgorsze – mówi Nick Clegg, wiceprezes Meta ds. globalnych.
Od wielu lat bardzo dużo inwestujemy w sztuczną inteligencję, jest ona zintegrowana ze wszystkimi aspektami naszych produktów. Jesteśmy też pionierem badań nad AI i zawsze wspieraliśmy dzielenie się technologią. W ciągu ostatniej dekady udostępniliśmy ponad 1000 baz danych i modeli sztucznej inteligencji. Jeśli spojrzeć na podstawowe technologie, z których korzystają OpenAI, DeepMind, Microsoft czy Google, to są one zasługą naszych badaczy.
To zupełnie odmienne podejście niż w przypadku innych firm. Oczywiście robimy tak częściowo dlatego, że leży to w naszym własnym interesie.
Uważamy, że takie działania są kołem zamachowym innowacji. Badacze, naukowcy, przedsiębiorcy używają naszych dużych modeli językowych, a my następnie włączamy ich pomysły do naszej technologii. Ale uważamy też, że po prostu nierealistyczne jest trzymanie tak potężnych technologii w rękach trzech lub czterech dużych amerykańskich firm.
Meta różni się nieco w podejściu od reszty branży. Wielu graczy próbuje zbudować pojedynczy, śpiewający i tańczący podmiot sztucznej inteligencji, taki jak ChatGPT, do którego można się zwrócić, aby napisać kod, toast weselny lub cokolwiek innego. My przyjmujemy bardziej zdecentralizowane podejście.
Już po tym wycieku kolejny model, LLaMA 2, otworzyliśmy sami. I zrobiliśmy to tak ostrożnie, jak to tylko możliwe. Pracowaliśmy z zewnętrznymi ekspertami, ponad 300 osób przez pół roku robiło stress testy, wykluczyliśmy jak najwięcej osobistych i wrażliwych informacji z przesłanych przez nas danych szkoleniowych. Przesłaliśmy jedną z wersji LLaMA na DEF CON w Las Vegas, aby hakerzy mogli się z nią zmierzyć. Za pośrednictwem Białego Domu wraz z resztą branży podjęliśmy wiele dobrowolnych zobowiązań. Opublikowaliśmy 75-stronicowy dokument badawczy, który do tej pory jest zdecydowanie najbardziej wyrafinowanym dokumentem pochodzącym od jakiejkolwiek firmy z sektora prywatnego na temat narzędzi generatywnej sztucznej inteligencji. Wykonaliśmy więc wiele pracy, a następnie nawiązaliśmy współpracę z Microsoftem, dzięki czemu nasze modele można uruchamiać bezpośrednio w systemie Windows.
W ostatnich miesiącach często wyolbrzymiano skutki wdrożenia generatywnej sztucznej inteligencji. To trochę absurdalne, że ludzie natychmiast zakładają najgorsze. Trzeba zrozumieć, że AI nie jest sprzętem czy pojedynczym programem, ale fundamentalną architekturą. Nie można dokładnie przewidzieć, jak zostanie wykorzystana, tak samo jak Apple czy Google nie mogło przewidzieć zastosowań iOS lub Androida przez osoby, które budowały dla nich aplikacje.
Warto przy tym pamiętać, że modele sztucznej inteligencji występują w dwóch formach: wstępnie wytrenowanej i precyzyjnie dostrojonej. Ta pierwsza forma jest jak surowiec, to znaczy laik nie może z nią wiele zrobić – trzeba mieć zaawansowaną wiedzę, by ją wykorzystać. Oczywiście rozumiemy, że są też „źli ludzie” zdolni do użycia takiego modelu, myślę jednak, że zrobiliśmy wszystko, co w naszej mocy, by zachować przejrzystość i odpowiedzialność. Powszechnie przyjmuje się, że technologia open source jest bezpieczniejsza, ponieważ wiele osób może ją testować czy badać luki w zabezpieczeniach, zamiast polegać w tej kwestii tylko na dużych firmach technologicznych.
Myślę, że reklamy nadal będą rdzeniem naszego modelu biznesowego. Metaversum będzie się rozwijać, użytkownicy będą zasiedlali immersyjne światy online. Bez wątpienia będzie w nich miejsce na reklamy i nowe biznesy e-commerce. A sztuczna inteligencja pozwoli generować treści w wirtualnej i rozszerzonej rzeczywistości znacznie łatwiej niż obecnie.
Nie sądzę, żeby to było coś nowego. Zawsze trzeba szukać równowagi – dawać ludziom coś angażującego, ale w sposób, który nie nadwyręża ich cierpliwości.
Znaczna część treningu odbywa się na publicznie dostępnych danych. Nie szkolimy naszych modeli na treściach wymienianych z rodziną i przyjaciółmi, wykluczamy strony internetowe, takie jak LinkedIn, które zawierają dane osobowe.
Natomiast wprowadzamy też narzędzie „Osobowości AI” – to wirtualny asystent, z którym będzie można rozmawiać na Facebooku, Instagramie czy WhatsAppie. Asystenci będą się uczyć na podstawie interakcji z użytkownikiem, na tym polega ich sens. Ale oczywiście będzie można podjąć decyzję, by wymazać całą historię rozmowy i zacząć wszystko od nowa.
Właśnie. Taki wirtualny asystent może być pasjonatem sportu i porozmawiać z użytkownikiem o jego kondycji fizycznej. Albo agentem biura podróży, który pomoże zaplanować wycieczkę. Będą też postaci historyczne. Będzie można porozmawiać z Jane Austen o jej życiu jako pisarki w Anglii. W tej chwili eksperymentujemy, aby zobaczyć, co ludzie uznają za najbardziej przydatne i najprzyjemniejsze.
Co ważne, te postaci będzie można włączyć do czatów grupowych. Jeśli więc jesteś na czacie grupowym na Messengerze i rozmawiasz o tym, dokąd pojechać na wakacje, możesz wprowadzić tam osobowość AI, aby mogła ci doradzić.
W internecie będzie coraz więcej treści generowanych przez sztuczną inteligencję, a nie przez ludzi. Jedną z najważniejszych rzeczy, z którymi wszyscy musimy się zmierzyć w branży, jest to, jak sprawić, by było oczywiste, że to treści przygotowane przez AI. Aby odpowiedzieć na tę potrzebę, ogłosiliśmy, że obrazy wygenerowane za pomocą naszych narzędzi będą oznaczane znakiem wodnym.
To oczywiście nie rozwiązuje problemu do końca, bo co z treściami, które pochodzą od innych podmiotów, takich jak Midjourney czy Stability AI? Jeśli tylko część graczy będzie oznaczała treści, da to ludziom złudzenie bezpieczeństwa. A to nie koniec, bo co z treściami hybrydowymi, w których tylko niewielka część jest generowana przez sztuczną inteligencję? Co, jeśli zostało zmienione tylko tło?
Tak. Takie trudności trzeba rozwiązywać przy udziale rządów. Moim zdaniem politycy na tym powinni się teraz skupiać, zamiast brać udział w tej całej hiperbolicznej dyskusji o tym, czy sztuczna inteligencja wytępi ludzkość i zamieni nas wszystkich w spinacze do papieru. W ciągu następnej dekady pojawi się wiele kwestii związanych z przejrzystością, wykrywalnością, znakami wodnymi, dezinformacją, w których potrzebujemy współpracy.
Myślę, że kluczową rzeczą, o której należy pamiętać, jest to, że nie można uregulować technologii, która jest tak płynna jak generatywna sztuczna inteligencja. Ważne jest, aby Rada i Parlament Europejski opracowały ostateczną wersję tego dokumentu, skupiając się na określeniu jasnych wymogów w zakresie przejrzystości i bezpieczeństwa, a nie na ograniczaniu rozwoju samej technologii.
Nad standardami społeczności pracujemy od lat, co dwa tygodnie konsultujemy się z zewnętrznymi ekspertami i naukowcami z całego świata w sprawie ich aktualizacji. Co 12 tygodni publikujemy wszystkie dane na temat tego, w jaki sposób wykorzystujemy nasze własne zautomatyzowane systemy do wychwytywania naruszeń tych standardów, zanim ktokolwiek zauważy, że nastąpiły. Jesteśmy jedyną firmą w całym sektorze technologicznym, która poddała te dane audytowi. Zabronione jest więc publikowanie materiałów związanych z wykorzystywaniem seksualnym dzieci, terroryzmem itd. Nasze duże modele językowe zaadaptowaliśmy tak, by opierały się na tych standardach.
Jestem jednak pewien, że – szczególnie na początku – te generatywne modele sztucznej inteligencji nie będą całkowicie przewidywalne, że pojawią się nieodpowiednie lub niepożądane treści. A potem będziemy musieli wykorzystywać informacje zwrotne otrzymane od ludzi, aby je dalej szkolić. Im częściej będą używane, tym lepiej będziemy mogli je dostosować do tych standardów.
To zależy od treści. Nie można działać na taką skalę jak my bez zautomatyzowania moderacji, to po prostu niemożliwe. Każdego dnia przez nasze systemy przepływają miliardy informacji, musimy więc polegać na AI. Jest to zresztą niezwykle skuteczne – ilość mowy nienawiści na Facebooku spadła w ciągu ostatnich 18 miesięcy niemal do zera. Na każde 10 tys. bitów treści tylko dwa zawierają mowę nienawiści.
Jeśli chodzi o treści wrażliwe czy polityczne, często będą one eskalowane do jednego z naszych moderatorów treści. Mamy ok. 40 tys. osób pracujących nad bezpieczeństwem i integralnością w firmie. A jeśli treści okażą się wyjątkowo wrażliwe, trafią do osób takich jak ja. Jest to więc mieszanka automatyzacji i ludzkiej interwencji. ©℗