Sposób, w jaki sztuczna inteligencja dochodzi do wniosków i podejmuje decyzje, jest często niezrozumiały, co budzi obawy co do tego, na ile wiarygodne może być uczenie maszynowe. Naukowcy z MIT opracowali nową metodę porównywania, na ile rozumowanie sztucznej inteligencji odpowiada rozumowaniu człowieka, co pozwala szybko analizować jego zachowanie.
Modele uczenia maszynowego są niezmiernie trudne do zrozumienia. Znajomość decyzji modelu jest łatwa, ale wiedza o tym, dlaczego model podjął taką decyzję, jest trudna.Angie Boggust z MIT
Powszechnie stosowana strategia rozumowania AI analizuje cechy danych, na których skupił się program, np. obraz lub zdanie, w celu podjęcia decyzji. Takie metody często dają wgląd tylko w jedną decyzję naraz, a każda z nich musi być sprawdzona ręcznie. Oprogramowanie AI jest często szkolone na milionach przypadków danych, co sprawia, że przeanalizowanie wystarczającej liczby decyzji w celu zidentyfikowania wzorców poprawnego lub niepoprawnego zachowania jest prawie niemożliwe dla człowieka.
Naukowcy z MIT i IBM Research połączyli siły i stworzyli sposób zbierania i sprawdzania wyjaśnień, jakie AI podaje w związku ze swoimi decyzjami. To pozwala na szybką analizę jej zachowania. Technika została nazwana Shared Interest, porównuje analizy decyzji AI z bazami danych opisanymi przez człowieka.
Czytaj też: Kiedy Twoje serce przestanie pracować? Sztuczna inteligencja poda odpowiedź
Program może zaklasyfikować zdjęcie jako zdjęcie psa, a metody analizy wykażą, że program, podejmując decyzję, zwrócił uwagę na piksele głowy i ciała psa. Stosując technikę Shared Interest można natomiast porównać wyniki tych metod z bazami danych obrazów, w których ludzie opisywali, które części obrazów należą do psów.
Dostarczenie użytkownikom narzędzi do sprawdzania i rozumienia modeli uczenia maszynowego ma kluczowe znaczenie dla zapewnienia bezpiecznego stosowania modeli uczenia maszynowego w świecie rzeczywistym.Angie Boggust
Program Shared Interest pomógł dermatologowi szybko zobaczyć przykłady poprawnych i błędnych przewidywań programu dotyczących diagnozy raka na podstawie zdjęć zmian skórnych. Ostatecznie to dermatolog zdecydował, że nie może ufać programowi, ponieważ zbyt wiele przewidywań opierało się na niepowiązanych szczegółach, a nie na rzeczywistych zmianach chorobowych.