Gdy badane algorytmy miały za zadanie rozpoznać twarz dorosłego mężczyzny o jasnej skórze, skuteczność maszyny była istotnie bardzo wysoka. Uzyskiwane stopy błędów rozpoznawania nie przekraczały 0,8 procenta. W tym przypadku można powiedzieć, że faktycznie maszyna świetnie sobie radzi. Jak jednak będzie wyglądać sytuacja, gdy zamiast zdjęć białych mężczyzn maszyna będzie musiała rozpoznać ciemnoskóre kobiety? Błędnych wyników – w zależności od konkretnego rozwiązania – jest od 20 do ponad 34 procent! Co gorsza w niektórych przypadkach odsetek błędnych rozpoznań sięgał 46,8 procent! W takim przypadku można wręcz stwierdzić, że nie ma mowy o jakimkolwiek “rozpoznawaniu” – maszyna po prostu “zgaduje”.
Skąd tak fatalne wyniki? Czemu nikt na to wcześniej nie wpadł? Wyjaśnienie okazuje się dość proste. Badacze wykazali, że jedna z czołowych amerykańskich firm technologicznych, która oferuje jeden z badanych systemów rozpoznawania i analizy twarzy, chwali się skutecznością na poziomie 97 procent. Jednak do uczenia maszynowego swoich algorytmów wykorzystuje zbiór danych (zdjęć), wśród których ponad 77 procent to fotografie mężczyzn, a ponad 83 procent to zdjęcia ludzi o jasnej skórze.
Badania te ponownie pokazują problem, o którym wśród badaczy maszynowego uczenia mówi się od dawna (czego przykładem jest wypowiedź matematyczki z Harvarda, dr Cathy O’Neil na powyższym filmie). Maszynowo uczona sztuczna inteligencja dziedziczy ukryte uprzedzenia swoich twórców, dlatego ważne jest, aby wszelkie algorytmy były dokładnie badane zanim zaczną być komercyjnie wykorzystywane na rynku. Głównie dlatego, że coraz szerszy zakres decyzji, które pozostawiamy maszynom powoduje, że niektóre osoby, zostaną zignorowane lub spotkają się z odmową, choćby dlatego, że mają “niewłaściwy” kolor skóry. | CHIP