2,5 mld internautów, 38 proc. światowego budżetu na reklamę, 633 mln stron internetowych. A wśród tego ponad 20 mln polskich internautów, którzy średnio spędzają w sieci ponad 18 godzin tygodniowo. Ale ile tak naprawdę wiemy o tym, czym jest ta cała sieć...

Jak to działa?

Z grubsza wiadomo. Są: serwery, routery, adresy IP i adresy WWW. Igor Ostrowski, ekspert w Internet Governance Forum (działającym przy ONZ), partner w kancelarii Salans, pokazuje mapę USA z podświetloną siatką połączeń obejmującą cały kontynent. Pierwsze, co rzuca się w oczy, to jej zagęszczenie na Wschodnim Wybrzeżu i koło największych miast. – To wizualizacja połączeń lotniczych, ale świetnie obrazuje, jak działa internet. Połączenia internetowe przypominają grę w gorącego kartofla – wyjaśnia.
Internet to nic innego jak sieć połączeń między serwerami, na których znajdują się dane, a komputerami użytkowników, którzy po informacje chcą sięgnąć. Choć jego początki sięgają końca lat 60., dopiero na początku lat 80. wyodrębniono część komercyjną (wcześniej była to zabawka wojska). Wtedy zarządzanie internetem polegało na połączeniu małych sieci w dużą sieć. Stworzono w tym protokół DNS, pozwalający różnym sieciom komunikować się ze sobą. – Największe wyzwanie, a zarazem największy koszt działania, to przechowywanie danych. Od początku chodziło o to, by tego gorącego kartofla przerzucić dalej – tłumaczy Ostrowski.
Dziś sieć internetowych połączeń jest równie gęsta jak lotniczych i podobnie jak w niej ruch niekoniecznie toczy się po najkrótszej trasie. A rolę lotnisk w połączeniach lotniczych w komunikacji internetowej odgrywają IXP, czyli Internet eXchange Points. – To coś w rodzaju giełd rozliczeniowych. Tu następuje wymiana ruchu między poszczególnymi dostawcami sieci. Skoro moje pytanie o informacje (adres) jest obciążeniem dla mojego dostawcy, ten odrzuca je dalej, do najbliższego IXP, a ten znowu odsyła dalej do tego dostawcy internetu, który obsłuży moje zapytanie – opowiada Ostrowski.
Zapytania są obsługiwane dzięki DNS, który pełni funkcję tłumacza między człowiekiem a komputerem. Dzięki niemu internauci mogą się posługiwać łatwymi do zapamiętania nazwami domen, zamiast wpisywać w przeglądarce cyfry tworzące adres IP danej strony. To DNS tłumaczy adres na cyfry i wyszukuje IXP odpowiadający za dany serwer. – Dlatego przepływ tych zapytań wygląda bardzo podobnie do ruchu lotniczego, bo jak ktoś chce się dostać do Pekinu, często musi lecieć przez Frankfurt, choć przez Moskwę byłoby bliżej. Ruch idzie tak, jak jest łatwiej – dodaje Ostrowski.

Kto tym wszystkim rządzi?

Teraz się wyjaśni, dlaczego tak długo tłumaczyliśmy zasady ruchu w sieci. Bo internetem rządzi ten, kto kontroluje ten ruch. Dziś funkcjonują dwa zupełnie różne światopoglądy zarządzania siecią: bill and keep – to firmy zarządzające IXP pobierają od dostawców sieci zryczałtowaną opłatę, oraz pay as you go – tu, jak w telekomunikacji, płaci się za każdy przesył danych. Na razie obowiązuje pierwsza zasada, ale rośnie grupa jego krytyków. W tle są oczywiście wielkie pieniądze. Przeciwnicy bill and keep podkreślają, że rozwiązanie to wymyślono 30 lat temu, gdy ruch w sieci był niewielki, a dziś potrzeba wielkich nakładów na utrzymanie przepustowości internetu.
Za adresy internetowe odpowiada ICANN, Internetowa Korporacja do spraw Nadawania Nazw i Numerów. Organizacja została utworzona w 1998 r., aby zneutralizować wrażenie, że sieć jest kontrolowana przez amerykański rząd. ICANN ma całkiem spore uprawnienia – nie tylko decyduje o przyznawaniu domen, określa także zasady techniczne działania internetu. Choć ICANN jest organizacją pozarządową, to jest zarejestrowana w Kalifornii i bywa uległa wobec USA (na prośbę Waszyngtonu zablokowała stronę WikiLeaks, gdy ta publikowała kompromitujące USA materiały).
Stąd pomysł, by uprawnienia ICANN przejął afiliowany przy ONZ Międzynarodowy Związek Telekomunikacyjny (ITU). To organizacja z XIX-wiecznym rodowodem, która początkowo zajmowała się komunikacją telegraficzną, a dziś odpowiada za telekomunikację. – Koordynuje częstotliwości, a to szczególnie przydatne przy zmianach technologii, takich jak przechodzenie na nadawanie cyfrowe telewizji. Jednak w 2000 roku ITU podjął decyzję, że nie będzie się zajmował internetem. Ale dziś większość jego członków uważa to za wielki błąd – tłumaczy Ostrowski.
Na grudniowym kongresie ITU w Dubaju Arabia Saudyjska poparta przez Egipt zaproponowała małą zmianę definicji usług telekomunikacyjnych: z „przekazywania informacji” na ich „przetwarzanie”. Internet to przecież nic innego jak właśnie przetwarzanie informacji. Zmiana tego słowa doprowadziłaby do tego, że ITU zacząłby sobie rościć prawa do rządzenia internetem. Jedną z pierwszych decyzji byłaby prawdopodobnie zmiana sposobu rozliczania: z korzystnej dla użytkowników (bill and keep) na korzystną dla operatorów (pas as you go). Oba te pomysły blokowane są przez USA i państwa europejskie.



Czy istnieje Echelon?

Oczywiście. Bo może i państwa nie potrafią się dogadać, kto i jak ma zarządzać siecią, ale nie pozostaje ona poza kontrolą. Wprawdzie Biały Dom oficjalnie nigdy nie potwierdził jej istnienia, ale sieć podsłuchowa Echelon nie jest już żadną tajemnicą.
System powstał blisko 20 lat temu przy udziale USA, Wielkiej Brytanii, Kanady, Australii i Nowej Zelandii i jest zarządzany przez amerykańską służbę wywiadu NSA. Przez pierwszych kilka lat udawało się utrzymać jego istnienie w tajemnicy. Jednak w 2001 roku Echelon był przedmiotem dochodzenia UE, która potwierdziła jego działanie. Echelon m.in. filtruje wiadomości przesyłane e-mailami oraz wsłuchuje się w rozmowy prowadzone przez komunikatory.
To Echelon namierzył telefon satelitarny Osamy bin Ladena w trakcie operacji „Tora Bora” pod koniec 2001 roku, zmuszając lidera Al-Kaidy do przejścia na tradycyjne systemy łączności. To on wychwycił rozmowy kuriera Osamy, dzięki czemu CIA udało się ustalić kryjówkę terrorysty, a Barack Obama mógł wydać rozkaz jego zabicia.

Kto strzeże bezpieczeństwa?

Jednego światowego cyberpolicjanta nie ma. Interpol ma częściowo takie uprawnienia, ale nie jest wyspecjalizowany w ściganiu przestępstw internetowych. – Bezpieczeństwo internetu, podobnie jak wiele innych jego atrybutów, jest zdecentralizowane. Oznacza to, że trudno wskazać organizację, która zarówno na poziomie strategicznym, jak i taktycznym dba o bezpieczeństwo sieci – tłumaczy Cezary Piekarski, analityk bezpieczeństwa z firmy Deloitte. Dodaje, że jednak są organizacje, które mają znaczący wpływ na bezpieczeństwo sieci. To: IETF (Internet Engineering Task Force), NIST CSD (National Institute of Standards and Technology – Computer Security Division) i szczególnie ENISA (European Network and Information Security Agency).
To są jednak raczej instytucje analityczne. Bezpośrednio na poziomie operacyjnym cyberbezpieczeństwem zajmują się przede wszystkim powoływane przez rządy krajów konkretne instytucje, a także dostawcy usług i oprogramowania służących ochronie zasobów informatycznych.



Czy trudno zostać hakerem?

Przypominając sobie zmasowane ataki na witryny polskiego rządu z początku roku, może się wydawać, że nie. Trzeba jednak pamiętać, że ataki DDoS (przeciążenie konkretnego serwera zapytaniami), do jakich doszło w związku z przyjęciem przez nas umowy ACTA, mają bardzo mało wspólnego z hackingiem. Czyli dogłębną wiedzą i umiejętnościami, zarówno z dziedziny tworzenia zabezpieczeń, jak i szukania w nich dziur.
Dziś dziesiątki tysięcy hakerów to pracownicy korporacji (czasem przestępczych), których praca nie jest interesująca, jak mogłoby się wydawać. – Niezbędna jest gotowość do poświęcenia jej dużej ilości czasu. Istotną cechą dobrego specjalisty jest także kreatywność, bo znaczna część problemów z bezpieczeństwem systemów informatycznych wynika z innego od zaplanowanego wykorzystania dostępnych narzędzi i aplikacji – opowiada Piekarski z Deloitte. Na własna rękę, bez wsparcia i ochrony dużych organizacji hakerzy nie mają co liczyć na spektakularne sukcesy.

Ile jest stron WWW?

Agencja Netcraft, która zlicza strony internetowe, podała, że na początku grudnia było ich 633 706 564, a od listopada przybyło 8 mln. Ale to liczba zarejestrowanych domen. Aktywnych stron jest znacznie mniej: 185 922 303. Czyli jeżeli komuś się wydaje, że już dziś jest tłoczno w internecie, to jest w błędzie.
Ponad połowa z nich to strony z domeną .com, czyli tzw. uniwersalne pierwszego rzędu. O co chodzi? Najpierw troszkę historii. Na początku lat 80. stworzono system pozwalający powiązać numery IP komputerów z hierarchicznie budowanymi nazwami domen internetowych. I zdefiniowano pierwsze domeny najwyższego poziomu (m.in. .gov, .edu, .com, .org) oraz zarejestrowano pierwszy adres internetowy – Nordu.net. Te domeny uniwersalne dla całego świata: .gov – dla instytucji rządowych, .edu – edukacyjnych, .com – przedsiębiorstw, a .net – dla wszystkich innych. Nordu.net była początkowo stroną jednego z serwerów, za to pierwszą komercyjną witryną stała się strona Symbolics Incorporated – Symbolics.com. Xerox.com, HP.com, IBM.com powstały w 1986 r., Apple.com w 1987 r. Microsoft czekał dłużej: aż do 1992 r. Szybko okazało się jednak, że wraz z rozwojem internetu w poszczególnych państwach potrzebne będą też domeny narodowe. Stąd adresy z końcówkami .uk, .de, .fr czy .pl.
W Polsce najwcześniej zarezerwowano adresy ośrodków akademickich i administracji państwowej. Były to z rozszerzeniami edu.pl i gov.pl. Niestety na początku lat 90. serwery naszego zarządcy sieci, Naukowej i Akademickiej Sieci Komputerowej, zostały zresetowane. Od tej pory przy dacie rejestracji najstarszych domen widnieje data 1 stycznia 1995 r. E-miejska legenda głosi, że najstarszym polskim adresem jest Computerland.pl utworzony już w 1994 roku. Dziś polskich adresów jest 2,4 mln, z tego 1,63 mln to strony o samej końcówce .pl.



Dlaczego nie ma domen .xxx?

Może ich nie widać, ale są. Od roku. Po dziesięciu latach prób zarejestrowania domeny przeznaczonej dla stron z treściami pornograficznymi w ubiegłym roku ICANN wreszcie się na nie zgodził.
Domeną .xxx zarządza firma ICM Registry. Tuż po uruchomieniu tej opcji otrzymała ona 900 tys. zawiadomień od firm, które chciałyby w pierwszej fazie rejestracji ochronić swój znak towarowy. Nie widzimy (nawet jeżeli szukamy pornografii) jej za często, bo domena .xxx nie spowodowała oczekiwanej rewolucji. Wprawdzie z tą końcówką zarejestrowano już ponad 250 tys. stron, ale znaczna część spośród utworzonych adresów to rejestracje ofensywne – robione po to, by chronić wizerunek firmy lub organizacji przed skojarzeniem z pornografią.
Takim przykładem jest domena zarejestrowana przez obrońców zwierząt PETA. Wchodząc pod adres Peta.xxx, trafimy na stronę, na której można zobaczyć filmy, których również nie pokazuje się w telewizji. Są one jednak poświęcone prawom zwierząt – tłumaczy Katarzyna Gruszecka, ekspertka z rejestratora domen 2BE.PL. Jednak sami producenci pornografii wcale nie rzucili się masowo po tę domenę. Stad złudzenie, że wciąż tego rozszerzenia .xxx nie ma.

Gdzie są dane w chmurze?

„Ideologia Apple w temacie przechowywania plików w chmurze jest prosta – nie musisz wiedzieć, gdzie są twoje dane. Po prostu uruchom aplikację i pliki są dla ciebie dostępne na każdym urządzeniu” – tak brzmi oficjalny komunikat o jednej z najpopularniejszych chmur iCloud. Czyli: nic ci nie powiemy dla twojego dobra.
Cloud computing to przetwarzanie i przechowywanie nie na dyskach komputerów w pracy czy w domu, ale na zewnętrznych serwerach. Pozwala zaoszczędzić sporo czasu i pieniędzy, ale wzbudza kontrowersje. Bo dane są powierzane firmom i nie ma pewności, co one z nimi robią. W przypadku największych dostawców tej usługi, takich jak Google, Microsoft, Amazon, zasoby chmury są rozmieszczone w centrach danych rozsianych po całym świecie. Gdzie dokładnie? Tego typu informacje ze względów bezpieczeństwa nigdy nie są podawane w pełni. Wiadomo jednak, że Microsoft dysponuje w Europie dwoma dużymi centrami: w Dublinie i w Amsterdamie.

Ile wie o nas Google?

Oczywiste jest, że im więcej korzysta się z internetu, tym więcej informacji o sobie zostawia się w sieci. Jeżeli chce się zobaczyć, jak widzi nas Google, można się tego dowiedzieć pod adresem www.google.com/ads/preferences. Tam widać, jak wyszukiwarka i jej system reklamowy nas widzą: czym się interesujemy, ile mamy lat, gdzie mieszkamy, jakimi językami mówimy. Jeszcze więcej informacji o nas Google zdobywa, gdy korzystamy z jego bardziej zaawansowanych usług – Gmaila, Kalendarza, Google+, konta na YouTube. Tak dużo? Część z tej wiedzy można poznać, zamawiając raport o swojej aktywności pod adresem: www.google.com/settings/activity.
Jeszcze więcej wiedzy o użytkownikach posiada Facebook. Wystarczy przypomnieć sobie głośny w ostatnich dniach przykład austriackich studentów, którzy pozwali serwis za słabą ochronę danych. W przypadku jednego ze studentów FB miał aż 1222 strony informacji zebranych tylko po 2010 roku. I co najważniejsze, teoretycznie były już one wykasowane przez tego młodego człowieka. FB ma więc nasze zdjęcia, informacje o pobycie na podstawie geolokalizacji, wie, jaka jest nasza ulubiona muzyka, filmy, książki, jakie mamy hobby, czy mamy rodzinę. Wie pewnie więcej niż Echelon.

Czy można skopiować sieć?

Choć dyskietek już się nie używa, to oferowana przez nie pojemność była łatwiejsza do wyobrażenia niż dzisiejsze gigabajty, nie mówiąc już zettabajtach. Nie da się przegrać internetu ani na dyskietkę, ani nawet na pojemniejsze pendrive’y.
Nie da się też obejrzeć wszystkich filmów na YouTubie. W ciągu jednej minuty na YT trafia 48 godzin nowych filmów.
Choć internet wydaje się nieokiełznany i wolny, tak naprawdę zarządza nim organizacja ICANN z siedziba w Kalifornii. A to rodzi podejrzenia, ze wpływ na siec ma rząd w Waszyngtonie