Generatywne AI i walka z dezinformacją? Amerykanie właśnie pokazali, jak tego nie robić

Mam wrażenie, że momentami zaczynamy brnąć w ślepy zaułek w temacie walki z dezinformacją. Niech za przykład posłuży stosunkowo świeży przypadek z Minnesoty i sądowa batalia o tzw. wolność słowa. Po jednej stronie surowe stanowe prawo zakazujące stosowania technologii deep fake do wpływania na wyniki wyborów, z drugiej swoboda wypowiedzi i potencjalne naruszenie amerykańskiej konstytucji, a w środku tego całego zamieszania szanowany ekspert, sam przy tej okazji popełniający gafę, która może go kosztować utratę ciężko wypracowanej przez lata reputacji.
Generatywne AI i walka z dezinformacją? Amerykanie właśnie pokazali, jak tego nie robić

Wszystko zaczęło się od parodii reklamy wyborczej Kamali Harris, którą opublikował w lipcu Mister Reagan, youtuber i amerykański satyryk polityczny. Wykorzystał w niej wygenerowaną przez AI imitację głosu kandydatki demokratów na prezydenta USA. Film szybko zniknął z social mediów, ze względu na wspomniane naruszenie stanowych przepisów dotyczących wykorzystania technologii deep fake do wpływania na wynik wyborów. To działanie (jako naruszenie dwóch poprawek do konstytucji) zaskarżyły dwie organizacje non profit – Hamilton Lincoln Law Institute (HLLI) i Upper Midwest Law Center (UMLC), a cała sprawa ostatecznie trafiła do sądu.

Teraz zaczyna się najlepsza część całej historii – w roli eksperta argumentującego zasadność obecnych przepisów zaproszony został profesor Jeff Hancock, dyrektor i założyciel Stanford Social Media Lab. Sęk w tym, że w dokumentacji złożonej przez Hancocka i powołującej się na liczne prace naukowe kilka źródeł wydało się biegłym podejrzane. W procesie ich weryfikacji okazało się, że niektórych z nich (np. The Influence of Deepfake Videos on Political Attitudes and Behavior”) nie da się znaleźć w żadnej bazie naukowej. Co więcej, niektóre cytaty przywodzą na myśl skojarzenia z radosną twórczością narzędzi pokroju ChatGPT, a zatem skłonnych do tzw. halucynacji.

Czytaj też: Dla tego zawodu to ostatni moment na przebranżowienie? Sztuczna inteligencja nie daje mu większych szans

Na obecnym etapie Hancock jeszcze nie ustosunkował się do przedstawionych zarzutów. Nie zrobił tego również nikt ze strony Stanford Social Media Lab. Biorąc jednak pod uwagę, że to już nie pierwszy przypadek, kiedy generatywne AI jest wykorzystywane w nie do końca właściwy sposób mam takie prywatne przekonanie, że nadal wiedza w tym zakresie, nawet wśród ekspertów, pozostaje niewystarczająca. Rosnące znaczenie narzędzi generatywnego AI walki z dezinformacją nie ułatwiają. Na tym przykładzie widać wyraźnie, jak ważna jest powszechna edukacja o korzyściach i potencjalnych zagrożeniach związanych z wykorzystaniem tej stosunkowo nowej technologii w codziennym życiu.