W tłumaczeniu na język internetowy oznacza to, że darknety oferują podobne usługi jak wszystkie inne serwisy internetowe (np. strony WWW, poczta elektroniczna, wymiana plików), dostępne są właściwie dla każdego, pod warunkiem że zainteresowany używa właściwego oprogramowania oraz wie, czego i kogo szuka. Darknety powstały, gdy organy ścigania na całym świecie zaczęły bacznie przyglądać się serwisom oferującym wymianę plików oraz poszukiwać aktywnych uczestników takich portali.
Wymieniający się plikami zaczęli szukać metod umożliwiających im kontynuowanie procederu i wymyślili zakamuflowany odpowiednik oficjalnie dostępnych sieci peer-to-peer, takich jak Napster, eDonkey i BitTorrent. W sieciach P2P centra wymiany informacji dbają o to, żeby wszyscy użytkownicy mogli pobierać i wysyłać pliki MP3 i filmy bez troszczenia się o prawa autorskie.
Zobacz na kolejnych stronach m.in. ideę sieci F2F, Freenetu, darknetu stworzonego przez pracowników HP i Deep Webu, a także jak dotrzeć do zasobów niewidocznych dla Google’a
Wymiana i pogawędki w gronie przyjaciół
Nowo powstałe sieci, ukryte w obrębie Internetu, zostały zbudowanie na bazie P2P i przemianowane na F2F (Friend to Friend). W odróżnieniu od sieci P2P nie mają one scentralizowanych serwerów, ich uczestnicy nie mogą wymieniać się plikami z dowolnymi osobami. Każdy użytkownik sieci F2F musi znać adres IP przyjaciół oraz mieć ich cyfrową wizytówkę (certyfikat), która jest niezbędna do nawiązania kontaktu.
Rozwiązanie takie ma uniemożliwić osobom z zewnątrz oraz organom ścigania zamknięcie serwisów służących do wymiany plików. Jedną z najbardziej znanych sieci F2F jest Freenet. Używa on dostępnej infrastruktury Internetu i łączy, za które płacimy dostawcom usług, jednak izoluje się od konwencjonalnej Sieci. Freenet umożliwia wymianę plików pomiędzy użytkownikami na wzór darknetu i rozciąga się na wiele sieci, w obrębie których znajdują się klasyczne serwisy WWW (tzw. freesites).
Zamierzeniem twórców Freenetu było stworzenie sieci w Sieci, której użytkownicy mogliby zachować anonimowość, publikować treści bez cenzury i w której istniałaby wolność wypowiedzi. Obywatele państw takich jak Chiny mogą w obrębie Freenetu swobodnie wymieniać myśli, bez obawy o represje ze strony państwa. Bezpieczna komunikacja odbywa się w trybie prywatnym, cała rozmowa jest szyfrowana, a informacje nie są przekazywane bezpośrednio pomiędzy rozmówcami – dane transmitowane są, podobnie jak w sieciach P2P, przez komputery innych użytkowników Freenetu. W efekcie szpiegujący poczynania użytkownika urzędnik nie będzie w stanie przeczytać korespondencji użytkowników.
Mniej prywatne niż wymiana wiadomości w tajnych kręgach są freesites, serwisy WWW rozpowszechniane we Freenecie, które nie są widoczne w klasycznej Sieci, a tym samym nie odnajdzie ich wyszukiwarka. Z biegiem czasu Freenet bardzo się rozwinął i rozrósł. Powstał również indeks opublikowanych we Freenecie serwisów, nazwany Linkageddon. Nie można przeszukiwać tej listy, a jedynie przeglądać ją, przewijając stronę.
W katalogu stron WWW panuje prawdziwa różnorodność – w zbiorze pojawiają się oprócz pornografii również strony z ofertami pirackich kopii programów, gier, filmów i muzyki. Obok serwisów dostarczających np. informacje o ucisku Tybetańczyków przez rząd Chin możemy natrafić na strony prowadzone przez pomyleńców, którzy z pseudonaukową precyzją przedstawiają kłamstwo oświęcimskie. Twórcy Freenetu nie przewidzieli, że freesites zaroją się od treści, które podlegają pod paragraf, takich jak np. pornografia dziecięca. Najwyraźniej autorzy takich stron wykorzystują brak cenzury, żeby w poczuciu bezkarności prowadzić nielegalną działalność.
Darknety bez krętactw
Billy Hoffman i Matt Wood, pracownicy działu badawczego giganta IT – firmy Hewlett Packard, uważają, że darknety nie zawsze muszą służyć do wspierania nielegalnej działalności. Dwa lata wcześniej zademonstrowali nową odmianę darknetu nazwaną Veiled (ang. zawoalowany). “Jesteśmy przekonani, że darknety stałyby się bardziej powszechne, gdyby nie istniały przeszkody w postaci konieczności pobierania, instalacji i konfiguracji oprogramowania” – powiedział Billy Hoffmann.
Gdyby dostęp do darknetu miał szerszy krąg odbiorców, to zdaniem Hoffmana sieci tego typu szybko znalazłyby legalne zastosowania.
Podczas prac koncepcyjnych badacze rozważali wykorzystanie Veiled do publikowania dokumentów Wikileaks. Administratorzy Wikileaks, zamiast publikować dokumenty w konwencjonalnych serwisach w Sieci, które pod wpływem prawnego lub politycznego nacisku mogą zostać zamknięte, mogliby publikować je w zdecentralizowanej sieci. W efekcie każda próba zablokowania dystrybucji dokumentów byłaby walką z wiatrakami. Dokumenty krążące po darknecie nie są zapisane na kilku małych serwerach, ich części są rozdzielone na komputery wszystkich użytkowników darknetu. Na tej samej zasadzie działa również Freenet.
Badacze z firmy HP chcą uprościć sieci darknet i optują za wykorzystaniem do tego celu przeglądarek WWW, umożliwiających dostęp do takich sieci. Veiled funkcjonuje więc – bez konieczności każdorazowego pobierania i konfigurowania programu – na komputerach z Windows, Mac OS X, Linuksem i na iPhone’ach. Chociaż na pierwszy rzut oka przeglądarka internetowa wydaje się mniej wydajna niż rozbudowany program przeznaczony do obsługi darknetu, Veiled obsługuje wszystkie ważne funkcje ukrytej Sieci, w tym kodowanie wszystkich transferów danych oraz rozmowy pomiędzy użytkownikami sieci.
Hoffmann i Wood udostępnili obszerną dokumentację Veiled, motywując tym samym innych programistów do naśladowania ich koncepcji. Niezależnie od tego, jak sprytnym rozwiązaniem jest Veiled, jego autorzy postanowili nie publikować gotowego programu. Powodem są zastrzeżenia natury prawnej ze strony pracodawcy. Autorzy umieścili więc w Internecie prezentację, której wartość informacyjna pozwala innym programistom z łatwością stworzyć klona Veiled.
Deep Web Większa niż World Wide Web
Również niewidoczna dla wyszukiwarek i ich użytkowników, lecz zgoła inaczej zorganizowana niż darknety jest sieć Deep Web. Według szacunków ekspertów jest ona ponad 1000 razy większa od tradycyjnego Internetu. Deep Web to z jednej strony ogromne banki danych, których treść nie jest zrozumiała dla popularnych wyszukiwarek. Tylko wtedy, gdy użytkownik wyśle specjalne zapytanie do banku danych, ten zwróci pożądany wynik. Z drugiej zaś strony do Deep Web należą serwery, które nie wpuszczają do środka robotów wyszukiwarek. Robią to na dwa sposoby: albo za pomocą loginu, albo poprzez specjalne wiadomości do web crawlera (robota przeszukującego serwis).
Każdy administrator strony WWW może określić, czy i które części jego serwisu mogą znaleźć się w indeksie Google’a i innych wyszukiwarek. Jeżeli administrator strony nie wpuści web crawlera, to jego strona nie zostanie wyświetlona na liście wyników wyszukiwania, nawet jeśli z 10 000 innych skatalogowanych stron WWW prowadzą odsyłacze do tego serwisu. W normalnych okolicznościach wiele połączeń gwarantuje wysokie miejsce na liście wyników wyszukiwania. Sokoli wzrok Google’a w opisanej sytuacji zawodzi i wyszukiwarka pokazuje użytkownikom jedynie wycinek tego, co kłębi się w Sieci.
Przykładami na istnienie Deep Web są katalogi bibliotek. Wprawdzie listy książek oraz czasopism są zapisane na konwencjonalnych serwerach sieciowych, jednak dostęp do zasobów sieciowych uzyskamy po wpisaniu loginu i hasła, a tymi wyszukiwarki nie dysponują. Mogą one zatem tylko spoglądać z zewnątrz na zamknięte drzwi – niczego nie wskórają. To samo dotyczy zbioru danych z informacjami o lotach, medycznych porad fachowych, danych produktów i wielu innych.
Co prawda, Google rozwiązał problem z informacjami o lotach przez zakup oprogramowania ITA (amerykańscy użytkownicy Google’a mogą dzięki ITA wpisać zapytanie do wyszukiwarki np. o najbardziej korzystne połączone z Nowego Jorku do Las Vegas), jednak wyszukiwarka wciąż nie sięga w otchłanie Deep Webu. W uzyskaniu dostępu do głębin Deep Webu obiecują pomóc wyszukiwarki takie jak np. BrightPlanet, ale wyłącznie za opłatą.
Pierwsze kroki po ukrytej Sieci
Nawet bez zainstalowanego specjalnego oprogramowania możemy zanurzyć się w Deep Webie – wystarczy pomoc odpowiednich portali i wyszukiwarek. oaister.worldcat.org Projekt zainicjowany przez Uniwersytet w Michigan. OAlster (czytaj: ojste) przeszukuje metadane serwera zawierającego dokumenty pochodzące od ponad 400 instytucji na całym świecie, są to m.in zasoby bibliotek, instytucji badawczych, czasopisma specjalistyczne i wiele innych. Zawierają one dane interesujące przede wszystkim dla naukowców. OAlster oferuje dostęp do ok. 18 milionów baz danych. scirus.com Nad wyraz potężne narzędzie do prowadzenia badań – naukowa wyszukiwarka Scirus przechowuje indeks 440 milionów wpisów: poczynając od zdjęć, przez artykuły z czasopism, a na stronach WWW kończąc. deepwebresearch.info Mark Zillman zgromadził kolekcje odsyłaczy do artykułów, dokumentów, forów dyskusyjnych i filmów w Deep Webie. Katalog dobrze wprowadza w temat ukrytej Sieci, chociaż dostępny jest w mało przejrzystej formie listy zapisanej jako dokument w formacie PDF. louvre.fr Strona internetowa muzeum to żaden skok w głęboką Sieć, jednak jeśli wybierzemy “Search the Collection” i “Database” – otworzy się przed nami sześć baz danych opisujących zbiory muzeum, których nie znajdziemy za pomocą Google’a.
Onion routing
Poruszając się przy użyciu zwykłej przeglądarki WWW, nie dostaniemy się do darknetu. Do tego celu będziemy potrzebować dodatków umożliwiających dostęp do ukrytej sieci. Bramka obsługuje tzw. onion routing, czyli złożoną technikę anonimowego dostępu, która przekazuje dane za pomocą ciągu stale zmieniających się zaszyfrowanych serwerów proxy. Ten system jest wykorzystywany również w darknecie.
Na tym etapie nietrudno to zrozumieć, ale dalej rzecz się komplikuje: w darknecie nie ma standardowych adresów URL. Dostęp do stron internetowych uzyskuje się poprzez zakodowane kombinacje liter i liczb, zakończone rozszerzeniem “.onion”. Te adresy często się zmieniają i dlatego stale muszą być odnajdywane – nie podpowiemy jednak, jak je znaleźć.
Opis do grafiki:
- GOOGLE I SPÓŁKA: Wyszukiwarki umożliwiają wgląd w treści dostępne w Internecie: teksty, zdjęcia, filmy, sklepy, gry – wszystko, o czym pomyślisz. Jeżeli Google nie może czegoś znaleźć, to nie istnieje to w widocznej Sieci. Należy zatem szukać dalej… w Deep Webie lub w darknetach.
- BIBLIOTEKI: Wiele bibliotek nie pozwala Google’owi przeszukiwać swoich banków danych – znajdziemy je jedynie za pomocą specjalnych stron takich jak scirus.com.
- MUZEA: Eksponaty, katalogi, filmy – wiele muzeów prezentuje znaczną część swoich zbiorów w formie cyfrowej. Wpisując w pole wyszukiwania Google’a “database”, przy odrobinie szczęścia znajdziemy te skarby.
- PIRACKIE KOPIE: Serwisy takie jak Freedom Hosting oferują anonimowe konta z miejscem przeznaczonym w pierwszej kolejności na nielegalne kopie. Ponieważ na serwerach znajduje się również pornografia dziecięca, obecnie Freedom Hosting jest pod obstrzałem.
- ORGANIZACJE: Strony rządowe, organizacje non profit, stowarzyszenia medyczne – wszyscy dysponują ogromnymi bazami danych, które mogą być przeszukiwane jedynie przez wyspecjalizowane wyszukiwarki
- BROŃ: Wbrew sensacyjnym doniesieniom sprzedaż broni nie kwitnie w Dark Webie. Chociaż sporadycznie handlarze oferują pistolety i karabiny, to zazwyczaj nie sprzedają ich w Europie.
- NARKOTYKI: Na stronach, takich jak Silk Road, Hidden Eden lub Dat Good, oferowane są LSD, marihuana oraz kokaina w sposób równie naturalny jak w księgarni Amazon książki.