W komunikacie Departamentu Innowacji Obronnych chodzi głównie o przejrzystość współpracy pomiędzy amerykańskim wojskiem i prywatnym sektorem. Pentagon chce nakreślić bardzo jasne zasady i chce uniknąć powtórki z 2018 r., kiedy to pracownicy Google odkryli, że Google zaangażowało się w wojskowy Projekt Maven, którego celem było opracowanie sztucznej inteligencji do analizy nagrań wideo z monitoringu. Pracownicy Google zaczęli protestować, uważając, że „firma Google nie powinna być zaangażowana w żadną działalność wojenną”.
Protesty odniosły skutek. Tzn. Google nie pracuje już nad Projektem Maven. Jego miejsce zastąpiły inne firmy technologiczne, w tym Amazon i Microsoft. Jednak Departament Obrony USA zdał sobie sprawę, że musi bardziej postarać się w kwestii zaufania do swoich technologii. Inaczej straci dostęp do najnowszych technologii oferowanych przez sektor prywatny. I tak powstały wytyczne opublikowane przez Departament Innowacji Obronnych.
Wytyczne te to właściwie zbiór zasad, który firmy muszą przestrzegać podczas planowania, opracowywania i wdrażania nowych technologii dla wojska. Zasady obejmują m.in. to kto konkretnie może korzystać z danej technologii, komu może ona zaszkodzić i jak takich szkód można można uniknąć, zarówno w trakcie tworzenia danego systemu, jak i po jego uruchomieniu.
— Nie istnieją żadne inne wytyczne, ani w DoD, ani, szczerze mówiąc, w rządzie Stanów Zjednoczonych, które są aż tak szczegółowe. – mówi Bryce Goodman z Departamentu Innowacji Obronnych.
Jeśli wytyczne zostaną przyjęte przez inne wojskowe departamenty, zawarte w nich zasady zmienią sposób opracowywania algorytmów sztucznej inteligencji dla wojska. Niezależni eksperci wskazują jednak, że opublikowane przez Departament Innowacji Obronnych zasady są tylko częściowym rozwiązaniem problemu. Owszem, według nowych wytycznych, amerykańscy wojskowi będą musieli bardzo dokładnie opisywać zastosowanie zamawianej od sektora prywatnego technologii.
Czytaj również: Pentagon chce być o krok przed wrogiem. Wykorzysta do tego sztuczną inteligencję
Margaret Mitchell, badaczka AI w Hugging Face, która wraz z Timnitem Gebru kierowała zespołem Google ds. etycznej sztucznej inteligencji wskazuje na przykład brak zajęcia się kwestią użycia broni autonomicznej, która według wielu ekspertów powinna być w ogóle zakazana. Goodman odpiera ten zarzut, tłumacząc że przepisy regulujące takie technologie są ustalane znacznie wyżej w łańcuchu dowodzenia.
Monitorowanie wykorzystania technologii wojskowej jest trudne, ponieważ zazwyczaj wymaga posiadania odpowiednich certyfikatów bezpieczeństwa (security clearance). Aby rozwiązać ten problem, eksperci zajmujący się etyką sztucznej inteligencji proponują, aby umowy Departamentu Obrony zapewniały niezależnym audytorom niezbędne do takich kontroli uprawnienia. To rodzi oczywiście kolejne problemy związane z kwestiami bezpieczeństwa i tajności takich projektów. Niemniej jednak wytyczne opublikowane przez amerykańskich wojskowych to pierwszy krok w dobrą stronę.