Jedziecie w swoim nowym, autonomicznym samochodzie. Sami, nad przepaścią. Nagle pech sprawia, że przy dość dużej prędkości pęka wam jedna z opon, powodując, że wasz pojazd niebezpiecznie szybko zaczyna zmieniać pas ruchu i za kilka sekund czołowo zderzy się z innym autonomicznym samochodem, który nie ma gdzie uciec. W tym drugim samochodzie jedzie czteroosobowa rodzina z psem. Niestety w ramach mody na ekologiczne rozwiązania, konstrukcja ich pojazdu nie wytrzyma czołowego zderzenia z wami i wszyscy jego pasażerowie zginą. Wasz komputer pokładowy w ułamku sekundy podejmuje szybką decyzję, że jedna śmierć to mniejsze zło i wykonuje desperacki zwrot, który nadjeżdżającą z naprzeciwka rodzinę uratuje, ale wy zginiecie. Spadając w przepaść.
Taki scenariusz opisał Patrick Lin – profesor filozofii na Politechnice Stanowej w Kalifornii. Lin zadaje pytanie: co w tej sytuacji powinien zrobić komputer kierujący waszym pojazdem? Jest to oczywiście odświeżona wersja dylematu wagonika – problemu rozpatrywanego w etyce od dawna. Wraz z pojawieniem się autonomicznych samochodów, powraca on jednak z wielokrotną siłą przebicia.
Oczywiście autonomiczne samochody są dopiero testowane, jednak to zapewne tylko kwestia czasu, kiedy takie auta trafią do masowej sprzedaży. Czy montowane w nich systemy powinny stawiać życie “swoich” ludzi na pierwszym miejscu, czy powinny być zaprogramowane tak, aby czynić “większe dobro”, nawet za cenę życia swojego kierowcy? Czy wybór ten pozostawi się producentowi, czy może przyjmiemy jakąś międzynarodową konwencję, która ustali zasady zachowania automatycznych samochodów?
Warto się nad tym zastanowić. Mamy jeszcze trochę czasu, zanim trzeba będzie podjąć decyzję.