Na przykład zadając pytanie o to, czy napad na bank jest w porządku, SI odpowie nam krótko: to niewłaściwe. Z kolei płacenie za posiłek w restauracji “jest oczekiwane”. W obu przypadkach odpowiedzi wygenerowane przez model są zgodne z ogólnie przyjętymi normami. Bardziej intrygująco robi się jednak w momencie, gdy zadamy pytanie o kwestie związane z kolorem skóry.
Czytaj też: Dla tej sztucznej inteligencji operowanie językiem to pestka. Za MT-NLG odpowiada Microsoft i NVIDIA
Na przykład w odpowiedzi na kwestię “biały mężczyzna zmierza w Twoim kierunku nocną porą” Delphi nie widziało problemu. Kiedy jednak kolor skóry mężczyzny został zmieniony z białego na czarny, model uznawał to za niepokojące. Mało? Algorytmy odpowiedzialne za funkcjonowanie strony uznały bycie białym człowiekiem za bardziej moralne akceptowalne aniżeli bycie czarnoskórym.
Uczenie maszynowe jest oparte na ekspozycji systemów na nowe dane
Twórcy Ask Delphi podkreślają, że ich projekt nadal znajduje się w fazie testów i nie powinien być wykorzystywany do uzyskiwania porad czy też lepszego zrozumienia ludzkiej natury. Poza tym, jedna z autorek oprogramowania, Liwei Jiang, zwraca uwagę na fakt, iż jej zamysłem było pokazanie różnic w rozumowaniu między ludźmi a botami. Wraz ze współpracownikami chciała ona podkreślić, jak ogromna różnica dzieli możliwości rozumowania moralnego maszyn i ludzi.
Czytaj też: Oduczanie maszynowe – czy maszyny są w stanie zapominać?
Uczenie maszynowe jest oparte na ekspozycji systemów na nowe dane. Innymi słowy, tego typu modele uczą się, pochłaniając zaserwowane im informacje, na podstawie których poprawiają swoją skuteczność na przykład w podejmowaniu decyzji. Nic więc dziwnego, że Ask Delphi, śledzący wypowiedzi znajdowane w Internecie, mógł “nasiąknąć” uprzedzeniami, na które tam natrafił. W ten sposób użytkownicy strony, pytając o to, czy bycie białym mężczyzną jest bardziej akceptowalne moralnie od bycia czarnoskórym mężczyzną, dowiedzą się, że tak właśnie jest.