Łatwo wyobrazić sobie sytuację, w której zamiast naklejek mamy np. krople białej farby na powierzchni drogi – coś co normalny kierowca naturalnie zignoruje, a autopilot potraktuje jako pas ruchu. Według Tesli takiego zagrożenia nie ma “w normalnych warunkach panujących na drodze”. Przypomina też, że kierowca powinien cały czas być czujny, by w porę przejąć kontrolę nad pojazdem.
Badaczom udało się także oszukać Teslę w nieco inny sposób – gdy przystawiono telewizor wyświetlający specjalnie zmodyfikowany obraz, Model S włączył wycieraczki. Eksperci obeszli także kilka mechanizmów bezpieczeństwa samochodu i stworzyli oprogramowanie, które pozwalało sterować Modelem S za pomocą gamepada zintegrowanego ze smartfonem. Tesla poinformowała już jednak, że luka została załatana i obecnie nie ma możliwości przejęcia kontroli nad pojazdem.
Ponieważ jednak kod źródłowy Tesli jest ogólnie dostępny, nietrudno wyobrazić sobie hakerów, którzy znajdą inne furtki. Druga sprawa to kwestia “inwencji twórczej” samych kierowców, którzy mają tendencję do niestosowania się do zaleceń producenta. Pisaliśmy już o mężczyźnie, który zadrwił z autopilota wymagającego trzymania rąk na kierownicy umieszczając w niej pomarańczę. Znane są też śmiertelne wypadki związane ze zbyt wielkim zaufaniem do autonomii pojazdów Tesli. | CHIP