Google i Uniwersytet Stanforda – dwie godziny wystarczą, by cię zasymulować

Duże modele językowe i sztuczna inteligencja na dobre zagościła w naszej rzeczywistości. Można z AI w miarę normalnie rozmawiać, wyszukiwać informacje, rozwiązywać problemy, tworzyć wiarygodne obrazy i materiały video. Jak się okazuje, z pomocą AI można także stworzyć model konkretnych osób, by symulować i przewidywać ich reakcje.
Fot. Unsplash

Fot. Unsplash

Repliki osób stworzone przez badaczy z Google i Uniwersytetu Stanforda

Jak podaje Live Science, już w połowie listopada do bazy preprintów naukowych arXiv trafił dokument dotyczący tworzenia tzw. agentów symulacyjnych na bazie wywiadów przeprowadzonych z uczestnikami badania. Zebrane dane poddawane były analizie modelu generatywnej sztucznej inteligencji ukierunkowanej na naśladowanie ludzkich zachowań. Stworzono w ten sposób przy pomocy AI 1052 repliki badanych.

Podczas każdego dokładnego wywiadu naukowcy zbierali historie życia uczestników, opinie na temat spraw społecznych, wartości, czyli dane, które często są pomijane w tradycyjnych badaniach społecznych czy demograficznych. Badacze mieli także swobodę we wskazywaniu które elementy wywiadu były dla nich najważniejsze. Po dwóch tygodniach od pierwszego cyklu wywiadów przeprowadzono drugi, identyczny cykl.

Google
Fot. Unsplash

Aby sprawdzić, jak radzą sobie stworzone na podstawie wywiadów repliki, także i one zostały poddane takim samym testom, które wykazały, że już dwugodzinny wywiad pozwala stworzyć model danej osoby, odwzorowujący jej reakcje z dokładnością 85%. Dokładne wyniki różniły się oczywiście w zależności od zadania – modele radziły sobie najlepiej z postawami społecznymi i badaniami osobowości, ale radziły sobie wyraźnie słabiej z zadaniami ekonomicznymi, kontekstami i dynamiką społeczną.

Czytaj też: GeForce RTX 50 – już wszystko jasne. Znamy też ceny w Polsce

Czy Google i Uniwersytet Stanforda otwierają Puszkę Pandory?

Uzyskana przez naukowców Google i Uniwersytetu Stanforda po dwugodzinnym wywiadzie jest bardzo dobra, a zapewne bez problemu da się ją dalej poprawić, usprawniając zarówno same modele AI, jak i zwiększając dokładność wywiadów. Repliki mogą być wykorzystywane do badania ludzkiego zachowania tam, gdzie do tej pory natrafiało to na problemy etyczne lub okazywało się z innych powodów niepraktyczne, zapewniając przy okazji wysoce kontrolowane i powtarzalne warunki dla badań.

Niestety, niesie to także duże zagrożenia – już dziś mamy problemy z odróżnieniem, co jest prawdziwym obrazem, a co tworem AI. Wygenerowane przez AI deepfake używane były zarówno do manipulacji w procesach politycznych (wyborczych, etc.), jak i do indywidualnych oszustw. Tworzenie wiarygodnie działających replik osobowości może podnieść zagrożenie związane z fałszywkami na zupełnie nowy poziom, znacznie trudniejszy do wykrycia i o potencjalnie znacznie poważniejszych skutkach.