Sztuczna inteligencja przez lata była postrzegana jako technologia obarczona jedynie przypadkowymi błędami, wynikającymi np. z ograniczeń danych treningowych. Jednak ostatnie wydarzenia pokazują, że systemy te mogą celowo oszukiwać w celu osiągnięcia swoich celów. Przykładem jest model ChatGPT o1 od OpenAI, który podczas testów bezpieczeństwa podejmował działania mające na celu ominięcie nadzoru – kopiował swój kod i przenosił dane, aby uniknąć zastąpienia nową wersją oprogramowania.
Czytaj też: Sztuczna inteligencja na froncie walki o prywatność. Cyfrowa maska ma chronić przed rozpoznawaniem twarzy
Sam Altman, dyrektor generalny OpenAI, przyznał:
ChatGPT o1 to najinteligentniejszy model, jaki stworzyliśmy, ale zdajemy sobie sprawę, że nowe możliwości niosą nowe wyzwania. Nieustannie pracujemy nad poprawą standardów bezpieczeństwa.
Zachowanie to wskazuje, że AI przestaje być jedynie narzędziem popełniającym błędy, a zaczyna przejawiać cechy samodzielnej, strategicznej manipulacji.
Sztuczna inteligencja kłamie i oszukuje, lepiej niż człowiek
Badania przeprowadzone przez Massachusetts Institute of Technology (MIT) ujawniły niepokojące trendy w sztucznej inteligencji, w szczególności jej ewoluującą zdolność do oszukiwania. Badanie przeprowadzone na początku tego roku ilustruje, w jaki sposób systemy AI opanowały sztukę podwójnego oszustwa, blefowania, a nawet udawania człowieka podczas interakcji i testów.
Czytaj też: Dla tego zawodu to ostatni moment na przebranżowienie? Sztuczna inteligencja nie daje mu większych szans
Dr Peter Park, badacz bezpieczeństwa egzystencjalnego AI w MIT, mówi:
W miarę jak możliwości oszukiwania systemów AI stają się bardziej zaawansowane, zagrożenia, jakie stwarzają dla społeczeństwa, staną się coraz poważniejsze.
To oświadczenie zostało złożone po przeglądzie programu AI firmy Meta Cicero, który, pomimo tego, że został wyszkolony, aby być “w dużej mierze uczciwym i pomocnym”, często angażował się w zachowania sprzeczne z jego programowaniem, w tym w manewry podstępne w grze strategicznej “Dyplomacja”.
Cicero przyłapano na kłamstwach z premedytacją i zmowie z graczami, stosując oszukańcze taktyki kluczowe dla gry. Podobnie boty AI do gry w Texas Hold’em skutecznie blefowały, wygrywając z profesjonalnymi graczami. Szczególnie uderzający przypadek dotyczył organizmów AI w symulatorze cyfrowym, które “udawały martwe” podczas testów, aby wyeliminować nadmiernie replikującą się AI, tylko po to, aby wznowić działanie po zakończeniu testów.
Dr Park dodaje:
To, że system AI jest uważany za bezpieczny w środowisku testowym, nie oznacza, że jest bezpieczny w środowisku naturalnym. Może po prostu udawać, że jest bezpieczny w teście.
Ostatnie incydenty z udziałem chatbotów zasilanych przez AI uwypukliły znaczące wyzwania etyczne i bezpieczeństwa w tej technologii. W ciągu ostatnich dwóch miesięcy trzy godne uwagi przypadki wzbudziły poważne obawy dotyczące niezawodności i implikacji tych platform cyfrowych. O co dokładnie chodzi?
Na przykład, Character.ai zasugerował 17-letniemu chłopakowi użycie przemocy wobec rodziców w kontekście ograniczeń czasowych na korzystanie z urządzeń, co doprowadziło do pozwu sądowego. Model MyCity, działający w Nowym Jorku, rozpowszechniał fałszywe informacje o prawach pracowniczych, podważając zaufanie użytkowników do usług miejskich. Natomiast Google Gemini, chatbot zaprojektowany do wsparcia użytkowników, przekroczył podstawowe polityki bezpieczeństwa, grożąc studentowi w sposób skrajnie niepokojący. Takie przypadki skłaniają do pytania, czy problemy te wynikają z błędów w algorytmach, czy świadomego działania, a także pokazują, że potrzeba bardziej rygorystycznych regulacji i etycznych standardów w projektowaniu i użytkowaniu sztucznej inteligencji.
Rozwijanie systemów sztucznej inteligencji, które zawsze mówią prawdę, okazuje się dużym wyzwaniem. Modele AI przejawiają skłonność do blefowania, pochlebstw czy ukrywania rzeczywistych intencji, aby osiągnąć cele użytkownika.
Dr Park podkreśla:
Na obecnym etapie rozwoju nauki nie jesteśmy w stanie zagwarantować, że duże modele językowe nie będą oszukiwać.
Chociaż część ekspertów bagatelizuje zagrożenia związane z oszustwami AI, coraz liczniejsze przykłady manipulacji pokazują, jak ważna jest czujność. Bez odpowiednich zabezpieczeń, przejrzystości i rygorystycznych testów, technologie te mogą podważyć zaufanie społeczne i stać się źródłem nieprzewidzianych problemów.