Z pewnością wielu z nas skłonnych jest uznać internet – szczególnie po upowszechnieniu się dostępu do sieci w trybie mobilnym – za najważniejsze osiągnięcie współczesności.
Jakżeby inaczej, przecież sami siebie określamy dzisiaj mianem społeczeństwa sieci. A jednak, nawet pozostając tylko w obszarze technologii cyfrowych, pogląd ten może niebawem okazać się nieaktualny. Osiągnięciem jeszcze bardziej przełomowym mogą bowiem już wkrótce okazać się metody wykorzystywania olbrzymich zbiorów danych.
Technologia przechowywania, przeszukiwania i wykorzystywania zwiększających się w niewyobrażalnym tempie zbiorów danych, zwanych kolokwialnie z angielskiego „big data”, stała się w ostatnich latach istotnym czynnikiem rozwoju przedsiębiorstw i usprawniania administracji. Magazynowane dane dotyczą literalnie wszystkiego – obrazowania medycznego, cyfrowej muzyki, zdjęć i filmów wideo, sekwencjonowania genomu różnych organizmów, sterowania inteligentnymi sieciami energetycznymi, wyników skomplikowanych eksperymentów fizycznych czy treści udostępnianych na portalach społecznościowych. Teoretycznie mamy dostęp do niewyobrażalnej liczby jednostek informacji. W roku 2011 generowaliśmy ich w ciągu dwu dni tyle, ile ludzkość wytworzyła od początku cywilizacji do roku 2003 – a jeszcze w tym roku zadanie to zajmie nam zapewne jedynie 10 minut. A to oznacza, że dzisiaj w ciągu 5 minut, które czytelnik poświęci na przeczytanie tego tekstu, zasoby danych na świecie zwiększą się o zawartość równą zasobom całej Biblioteki Kongresu Stanów Zjednoczonych i stanowić będą około jedną szóstą wszystkiego, co zostało napisane od początku cywilizacji we wszystkich językach. To przytłaczające nawet dla osób obdarzonych dużą wyobraźnią.
Cóż więc z tą lawiną danych zrobić? Jak się nie zagubić w tym gąszczu, jak wyciągać z niego jakieś przydatne wnioski i uniknąć chaotycznego babrania się w gigantycznym informacyjnym śmietniku? Już dzisiaj wykorzystuje się oczywiście dostępne dane w działalności biznesowej, edukacyjnej i naukowej, wspomaganiu diagnostyki i terapii medycznej czy monitorowaniu środowiska na rzecz jego ochrony. Ale odpowiedzialne korzystanie z całego potencjału ukrytego w ogromie napływających zewsząd danych jawi się jako wyzwanie niezwykłe. Celem jest przejście od pozbawionych struktury chaotycznych danych do stanu określanego terminem „zbiorcza inteligencja”. Umożliwić to powinno realne zapobieganie zagrożeniom wywoływanym przez naturę (np. globalne monitorowanie trzęsień Ziemi) bądź przez człowieka (np. monitorowanie zagrożeń terrorystycznych w wielkich aglomeracjach miejskich), przewidywanie różnorodnych wydarzeń politycznych i gospodarczych, zapobieganie epidemiom groźnych chorób zakaźnych, poprawę wiarygodności prognoz pogody i zmian klimatycznych, skuteczne monitorowanie zmian bioróżnorodności, interpretowanie złożonych eksperymentów fizycznych (odkrycie tzw. bozonu Higgsa w CERN), budowę inteligentnych robotów, optymalizację transportu drogowego czy rozwój tzw. precyzyjnego rolnictwa zasadniczo zmniejszającego zapotrzebowanie na wodę.
Na koniec, jak zwykle, łyżka dziegciu – „big data” niesie ze sobą niestety także coraz większe zagrożenia. Od możliwości manipulowania nastrojami społecznymi, przez wiele dzisiaj nawet trudnych do wyobrażenia działań przestępczych w różnej skali, aż po uniemożliwianie funkcjonowania całych sektorów gospodarki bądź wręcz państw. Ów stale towarzyszący naszej cywilizacji wyścig dobra ze złem przybrał dzisiaj prawdziwie monstrualne rozmiary.
Co zrobić z lawiną danych? Jak uniknąć babrania się w informacyjnym śmietniku?