Na pierwszy rzut oka nie widać tu nic ciekawego. Ot, nagranie z jadącego samochodu z dziwnie pokolorowanymi elementami otoczenia. Jednak te kolory i sama dokładność kolorowania jest tu niezwykle ważna. Kolorowanie to zostało wykonane bowiem w całości przez sieć neuronową Tesli, która dzięki analizie materiałów wideo zbieranych przez ponad milion pojazdów i manualnej kalibracji wykonywanej pieczołowicie przez ludzkich pracowników Tesli staje się coraz lepsza w identyfikacji poszczególnych elementów otoczenia – dróg, znaków, pieszych, innych samochodów, przeszkód na drodze, przypadkowych zwierząt, etc.
Identyfikacja ta jest niezbędna do wprowadzenia trzeciego poziomu autonomii, czyli stanu, w którym kierowca nie musi nieustannie nadzorować pracy systemu autonomicznej jazdy. Czasem może być poproszony o przejęcie kontroli (kiedy na drodze pojawi się jakaś trudniejsza sytuacja), a to spora różnica.
Czytaj również: Rewolucyjny układ Tesla D1 ujawniony. Napędzi superkomputer Dojo
Na razie system rozpoznawania jest zdaniem Karpathy’ego zbyt surowy, żeby móc wykorzystać go w samochodzie – opublikowane przez niego filmy zostały poddane identyfikacji przez stacjonarne automaty etykietujące, których praca w przyszłości pozwoli na stworzenie gotowych modeli, gotowych do użycia przez system autonomicznej jazdy działający w autach Tesli.
Kiedy to nastąpi? Trudno powiedzieć. Karpathy twierdzi, że minie jeszcze trochę czasu, zanim gotowy będzie stwierdzić, że aktualnie uczące się algorytmy są już gotowe do zastosowania w prawdziwym środowisku, tj. na drodze. Złośliwi komentatorzy dodają, że nagrania opublikowane przez szefa AI to przede wszystkim próba ściągnięcia nowych talentów do Tesli, dzięki którym prace nad 3. poziomem autonomii mogłyby przyspieszyć.