Projekt OASIS (Object-Aware Situated Interactive System)
łączy algorytmy obrazu komputerowego w czasie rzeczywistym, kamery 3D i mikroprojekcje do szybkiego rozpoznawania oraz śledzenia obiektów codziennego użytku oraz gestów. W tej demonstracji wykorzystano obrazy wyświetlane na powierzchniach codziennego użytku w celu stworzenia interaktywnych “wysp” na użytek aplikacji domowych.
System ten można łatwo zainstalować w dowolnym domu i dowolnym pomieszczeniu z wykorzystaniem niemal dowolnej poziomej lub pionowej powierzchni. Projekt ten przewiduje nowe możliwości przyszłych domów oraz ich implikacje dla zastosowań i funkcji domowych serwerów.
Jest to przykład rozpoznawania obiektów 3D i interakcji opartych na gestach w środowisku domowym. Technologię tę można zastosować do wielu modeli użycia, np. zabaw z zabawkami. Intel użył kamery 3D, komputera PC i projektora. Firma uważa, że komponenty te zmieszczą się w obudowie wielkości telefonu komórkowego w miarę, jak urządzenie te będą stawać się coraz tańsze i wydajniejsze.
Właśnie w takich zastosowaniach potężne, ale energooszczędne układy następnej generacji przyniosą możliwości projektowania nowych urządzeń, podłączonych do internetu, montowanych pod kuchennymi szafkami, używanych w połączeniu z codziennymi obiektami, wyświetlanych na powierzchniach codziennego użytku, wykorzystujących codzienne gesty.
Projekt o nazwie “Samochód rozpoznający kontekst”
ma zwiększyć bezpieczeństwo prowadzenia pojazdów, które coraz częściej są wyposażone w szereg różnorodnych technologii – między innymi telefony komórkowe, systemy nawigacji satelitarnej, czy systemy do utrzymywania prędkości podróżnej. Obecność tylu urządzeń i usług w samochodach rodzi niebezpieczeństwo, ponieważ z reguły urządzenia te odwracają uwagę kierującego od kierowania pojazdem.
Zademonstrowano więc algorytm rozpoznawania twarzy, opracowany przez Intel Labs w połączeniu z intelowskimi urządzeniami wbudowanymi, które zapewniają dostęp do infrastruktury samochodowej za pośrednictwem kamer i czujników, aby zapewnić kierowcy i pasażerom bezpieczeństwo i wygodę. Ta demonstracja wykorzystuje oprogramowanie do rozpoznawania twarzy opracowane przez Intel Labs, mechanizm kontekstowy, czujniki środowiskowe oraz preferencje osobiste.
Projekt Rozpoznawania Twarzy
prowadzony jest przez Jeffa Hightowera w Intel Labs w Seattle. Algorytmy wizji i percepcji komputerowej, takie jak rozpoznawanie twarzy w czasie rzeczywistym, można realizować w praktyce na urządzeniach mobilnych klasy Intel Atom z wykorzystaniem mechanicznego uczenia się, energooszczędnej łączności sieciowej oraz przetwarzania równoległego w chmurze. Intel pokazał, jak zwiększyć wydajność i energooszczędność poprzez wykorzystanie możliwości procesorów Intel Atom i inteligentne wybieranie tych komputerowych obliczeń, które można wykonać w chmurze.
Projekt “Chmurowy ray-tracing w grach”
prowadzony jest w głównej siedzibie firmy, w Santa Clara. Ta demonstracja udowodniła, że przyszłe gry na urządzeniach mobilnych mogą zostać wzbogacone przez intelowskie serwery działające w internetowej “chmurze”. Badacze z Intel Labs pokazali wersję demo gry Wolfenstein: Ray Traced, która do renderingu obrazu wykorzystywała ray-tracing w czasie rzeczywistym.
Po stronie serwera demonstracja używała zbioru maszyn opartych na nowej platformie tworzenia oprogramowania “Knight’s Ferry”, w której zastosowano architekturę wielu zintegrowanych rdzeni (Intel MIC), opracowywaną przez Intela z myślą o wysokowydajnym przetwarzaniu danych. Cztery serwery Knight’s Ferry reprezentowały przyszłą “chmurę” zasobów obliczeniowych, która wysyła obrazy do urządzenia mobilnego. Podczas prezentacji serwery renderowały obraz i dostarczały go strumieniowo do uproszczonego urządzenia klienckiego (małego laptopa), na którym użytkownik może grać.
Celem projektu jest umożliwienie pisania fotorealistycznych, interaktywnych aplikacji 3D, poprzez opracowanie działających w czasie rzeczywistym silników ray-tracingu dla platform Intela. Ray tracing w czasie rzeczywistym jest realizowany równolegle na wielordzeniowym sprzęcie. Ray tracing (śledzenie promieni) to sposób renderowania grafiki, który wykorzystuje fizykę światła do rysowania scen zawierających bardzo realistyczne cienie, odbicia i inne efekty świetlne.
Ray tracing był używany do tworzenia statycznych obrazów i hollywoodzkich filmów, w których poszczególne klatki są przygotowywane zawczasu, ale dopiero od niedawna można przetwarzać obrazy wystarczająco szybko, żeby wykorzystać tę technologię w grach. Druga technologia to Knight’s Ferry, nowa platforma z wieloma zintegrowanymi rdzeniami (Many Integrated Core, MIC)
Asystent klasowy
to kolejny projekt badawczy Intel Labs w Hillsboro, który przeznaczony jest dla segmentu edukacji. Przetwarzanie danych 1:1 w szkolnej klasie pozwala nauczycielom opracować indywidualne programy nauki dla uczniów o szerokiej gamie zainteresowań i umiejętności. Technologia Classmate Assist wykorzystuje obraz komputerowy i projekcję obrazu, aby wspomagać i kierować uczniów w środowisku nauczania 1:1, pomagając im niezależnie realizować zadania we własnym tempie, a jednocześnie informując nauczyciela o postępach uczniów.
Jest to przykład wykorzystania wzbogaconej rzeczywistości w szkolnej klasie. Projekt pokazuje też, że narzędzia wspomagające wydajność mogą być przydatne w każdej sytuacji edukacyjnej. Co więcej, dowodzi, że rzeczywistość wzbogaconą można uzyskać na procesorach i netbookach Atom.
Kluczową technologią, zastosowaną przy tym projekcie, jest wizja maszynowa. Rozwiązanie działa na klasowym netbooku wyposażonym w kamerę, którą można wycelować w powierzchnię biurka między użytkownikiem a ekranem.
Pod przywództwem Yi Wu, opracowywany jest kolejny
projekt – Mobilnej rzeczywistości wzbogaconej (Mobile Augmented Reality)
. Intel zademonstrował mobilną aplikację World Browser wykorzystującą rzeczywistość wzbogaconą. Ta intelowska przeglądarka pozwala użytkownikom lepiej zrozumieć otaczający świat za pomocą urządzenia napędzanego przez procesor Atom. Użytkownicy mogą natychmiast uzyskać dostęp do ogromnego zbioru informacji w internecie przez proste naciśnięcie spustu migawki aparatu. System Intela błyskawicznie identyfikuje punkty orientacyjne poprzez intensywne obliczeniowo wyszukiwanie wizualne w połączeniu z energooszczędnymi czujnikami, które wykorzystują unikatowe cechy platformy Atom.
Jest to przykład nowej fali rzeczywistości wzbogaconej, w której rozpoznawanie obiektów zapewnia wyższą precyzję, niż same informacje GPS. Demonstracja pokazała też, jak można połączyć lokalne i chmurowe przetwarzanie danych, aby zapewnić użytkownikowi najwyższą jakość wrażeń.
Ostatnim z projektów, jest Wieloaplikacyjna platforma telewizyjna, tworzona przez oddział Intela w Oregonie. Ta demonstracja pokazała trzy różne interfejsy użytkownika dla platformy Intel Multi-App Framework. Każdy interfejs demonstruje różne sposoby organizowania, dostępu i nawigowania po aplikacjach w telewizorze; łatwe w użyciu, ale bogate środowiska 2D i 3D; oraz wiele paradygmatów nawigacji.
Celem demonstracji było pokazanie, poprzez różne interfejsy użytkownika wspierające jedną kluczową technologię, jak jednocześnie wykonywać wiele aplikacji w telewizorze, a zarazem rozwiązać problemy z zarządzaniem zasobami i konfliktami sprzętowymi, które pojawiają się podczas równoległej pracy różnych aplikacji. W demonstracji użyto dekodera telewizyjnego z procesorem medialnym Intel CE4100 podłączonego do telewizora HD. Dekoder wykonuje trzy projekty referencyjne OpenGL.