Nowoczesna komórka, taka jak iPhone czy smartfon z systemem operacyjnym Android, oraz bezprzewodowe łącze internetowe wystarczą, by w prosty sposób pobierać z Sieci informacje dotyczące naszego otoczenia – zawsze i wszędzie. Jest to możliwe dzięki technologii Augmented Reality (AR), czyli rozszerzonej rzeczywistości. W przeciwieństwie do rzeczywistości wirtualnej, przenoszącej użytkownika do sztucznie zaprojektowanego świata, AR wzbogaca to, co widzimy, o dodatkowe informacje.
Telefon z kamerą: Informacje dopasowane do miejsca
W przypadku rzeczywistości rozszerzonej mamy do czynienia z analizowaniem otoczenia użytkownika i dostarczaniem mu związanych z nim informacji. Przykładowo aplikacja Wikitude przeznaczona do smartfonów z systemem Android wykorzystuje ogromne zbiory danych Wikipedii i Qype.
Zasada jej działania jest banalnie prosta: użytkownik kieruje obiektyw kamery wbudowanej w swój telefon na dowolny obiekt, a Wikitude szuka w Internecie dotyczących go informacji. Gdy tylko program znajdzie coś odpowiedniego, wyświetla tekst razem z żywym obrazem rejestrowanym przez kamerę na wyświetlaczu telefonu. Gdy skierujemy obiektyw
w inną stronę, w czasie rzeczywistym zmienią się również wyświetlane dane.
Aby określić miejsce, w którym znajduje się użytkownik, oprogramowanie telefonu analizuje dane z: odbiornika GPS podającego aktualną pozycję, sensora położenia umożliwiającego określenie pola widzenia kamery oraz kompasu wskazującego stronę, w którą skierowany jest obiektyw. Uzyskane w ten sposób dane geograficzne są porównywane z internetową bazą obiektów, a odpowiednie informacje są pobierane i pokazywane na wyświetlaczu telefonu.
Gry: Połączenie świata rzeczywistego i wirtualnego
Nieco łatwiejsze okazuje się wykorzystanie AR w grach komputerowych – w przeciwieństwie do zastosowań, w których niezbędne jest dokładne określenie położenia geograficznego, tu potrzebne jest jedynie obliczenie względnej odległości użytkownika od kamery. Poza tym programiści mogą projektować aplikacje wymagające użycia specjalistycznych akcesoriów. Przykładowo gra EyePet na Play Station 3 umożliwia nam opiekę nad wirtualnym zwierzątkiem. Kamera rejestruje ruchy rąk użytkownika, a program przetwarza je na polecenia – możemy na przykład grać z naszym podopiecznym w piłkę, głaskać go i poszturchiwać.
Najprostszym sposobem realizacji pozycjonowania względnego jest wykorzystanie wirtualnego wskaźnika (ang. Fiducial Marker), który może być jednoznacznie zidentyfikowany przez program. Podobnie jak kod kreskowy, wskaźnik służy do przekazywania uruchomionemu programowi poleceń, na przykład wyświetlania trójwymiarowych obiektów bądź aplikacji. Interfejsem pośredniczącym między wskaźnikiem a aplikacją jest prosta kamera internetowa, identyfikująca go i przekazująca do programu informacje o położeniu i odległości wskaźnika od obiektywu. Takie rozwiązanie można wykorzystać do tworzenia
interaktywnych książek, animowanych instrukcji obsługi i gier. Wada takiego systemu to ograniczona elastyczność – niezbędne są kamera, komputer i wyświetlacz. Zakres jego praktycznych zastosowań jest więc niewielki: rozwiązania pozwalające na tworzenie rozbudowanych aplikacji AR są dopiero opracowywane. Obok opisanej wyżej technologii badacze opracowują coraz bardziej inteligentne metody integracji świata wirtualnego
z naszą rzeczywistością.
Nowa generacja: okulary z dostępem do Internetu
Najważniejszym elementem nowych rozwiązań są urządzenia, które niepostrzeżenie dopasowują się do potrzeb użytkownika, takie jak wyświetlacze nakładane na głowę (HMD – Head Mounted Display) czy wyświetlacze przezroczyste (See-Through Display), czyli okulary i szyby, które na pierwszy rzut oka niczym nie różnią się od swoich zwyczajnych odpowiedników. Szansę na przełom daje zastosowanie giętkich, przezroczystych ekranów OLED. Pierwsze prototypy takich okularów zaprezentował ostatnio Instytut Obróbki Informacji i Danych (IITB) Towarzystwa Fraunhofera. System iStar (Interactive See-Through Augmented Reality Display – interaktywny przezroczysty wyświetlacz rzeczywistości rozszerzonej) składa się z ekranu OLED z sensorami CMOS rejestrującymi ruch gałek ocznych użytkownika i dopasowującymi prezentowaną treść do ich położenia. Nośnikiem niezbędnego oprogramowania jest UMPC – komputer ultramobilny.
Inżynierowie głowią się nie tylko nad nowymi rozwiązaniami, ale również nad sposobami wykorzystania przezroczystych wyświetlaczy i technologii Video Augmentation. Rzeczywistość rozszerzona mogłaby na przykład całkowicie zastąpić klasyczne instrukcje obsługi – animacje ilustrujące kolejne czynności byłyby w odpowiednim momencie prezentowane na wyświetlaczu. Można też wykorzystać ją do wyświetlania informacji o ruchu na powierzchni szyb samochodowych lub wzbogacania projektów architektonicznych o wirtualne trójwymiarowe modele.
Niezależnie od tego, jaki projekt najbardziej rozpala naszą wyobraźnię – jego cel jest jeden: wzbogacić nasze otoczenie o informacje, które niepostrzeżenie i bezbłędnie dopasują się do świata widzianego naszymi oczami.