Widać to choćby w czasie wojen, kiedy dowódcy muszą na bieżąco reagować na zmieniającą się sytuację. Rzadko kiedy można w takich momentach znaleźć idealne wyjście z sytuacji, a za przykład można podać sytuację, w której dwaj doświadczeni dowódcy wojskowi podejmują dwie różne decyzje mimo realizacji identycznych scenariuszy. Pewną stabilizację w tej materii mogłaby zapewniać sztuczna inteligencja.
Czytaj też: Czym tak naprawdę jest sztuczna inteligencja?
Pomysłodawcą takiego rozwiązania jest DARPA, czyli amerykańska agencja rządowa związana z badaniami nad nowymi technologiami wojskowymi. Jej przedstawiciele ogłosili rozpoczęcie programu In the Moment (ITM), którego celem jest określenie skuteczności algorytmów w zakresie podejmowania decyzji w zestawieniu z ludźmi. Chodziło o realizację scenariuszy, w których nie istnieje jednak konkretna, prawidłowa odpowiedź.
Algorytmy miałyby dokonywać wyborów w sytuacjach, w których nie ma jednej poprawnej odpowiedzi
W odróżnieniu od obecnie stosowanych rozwiązań, które odnoszą się do dokonywania właściwych wyborów (na przykład w technologiach związanych z autonomicznymi samochodami) algorytmy testowane w ramach ITM miałyby działać na innych zasadach. Musiałyby bowiem podejmować decyzje w sytuacjach, w których nawet ludzcy eksperci nie są w stanie ustalić jednej poprawnej odpowiedzi. Dodatkowe problemy sprawia też presja czasu.
Stworzymy realistyczne, wymagające scenariusze decyzyjne, które będą wymagały odpowiedzi od zaufanych ekspertów, aby odnotować rozkład kluczowych atrybutów decydenta. Następnie wystawimy algorytm decyzyjny na kontakt z tymi samymi wymagającymi scenariuszami i przyporządkujemy jego odpowiedzi do rozkładu referencyjnego, aby porównać go z zaufanymi ludzkimi decydentami.wyjaśnia Matt Turek, kierownik programu ITM
Czytaj też: Rosyjska korweta stealth miała znikać z radarów. Zniknęła… po ostrzale Ukrainy
W skład programu wchodzą cztery obszary techniczne, przy czym pierwszy obejmuje opracowanie technik charakteryzowania decydentów, które umożliwią identyfikację oraz ilościowe określenie kluczowych atrybutów występujących u tych osób. Drugi dotyczy dopasowania między człowiekiem a algorytmem w sposób, który będzie możliwy do przewidzenia. Trzeci obszar jest związany z projektowaniem i ewaluacją programu, podczas gdy czwarty nawiązuje do prawnej, moralnej i etycznej wiedzy dotyczącej ITM a także nadzorowania rozwoju całego przedsięwzięcia.