Komisja Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych (LIBE) oraz Komisja Rynku Wewnętrznego i Ochrony Konsumentów (IMCO) zaakceptowały projekt ustawy AI Act (AIA), przekazując go do dalszego procedowania na posiedzeniu plenarnym PE, zaplanowanym na połowę czerwca. Przed unijnym ustawodawcą stoi nie lada wyzwanie, polegające na zachowaniu balansu między wysokim poziomem bezpieczeństwa i prywatności obywateli związanych z używaniem technologii AI, przy jednoczesnym podtrzymaniu szybkiego tempa innowacji branży, w której z tygodnia na tydzień sytuacja zmienia się jak w kalejdoskopie.
Łatwizna, chciałoby się napisać. W swoim podstawowym rysie ustawa AI Act (AIA) dzieli zastosowania systemów oraz aplikacji sztucznej inteligencji na cztery podstawowe kategorie pod względem poziomu powodowanego dla użytkowników ryzyka:
- Nieakceptowalne (np. system punktów społecznych stosowany w Chinach czy identyfikacja biometryczna w czasie rzeczywistym)
- Wysokie (np. systemy związane m.in. z rekrutacją, edukacją, infrastrukturą krytyczną oraz prawem, ale również chatboty takie jak ChatGPT)
- Ograniczone (np. systemy przetwarzania obrazu)
- Minimalne (np. gry wykorzystujące AI)
Oczywiście stosowanie systemów z pierwszej kategorii będzie na terenie UE całkowicie zabronione. W przypadku drugiej konieczna będzie rejestracja danego systemu w unijnej bazie, zapewnienie odpowiedniej jakości danych treningowych, monitorowanie przez cały czas cyklu życia oraz stworzenie odpowiedniego systemu zarządzania ryzykiem.
W kontekście generatywnej AI, takie modele językowe jak GPT mają też spełniać dodatkowe wymagania dotyczące przejrzystości, uniemożliwiać generowanie nielegalnych treści i wyłączyć z procesu trenowania dane chronione prawem autorskim. Przy ograniczonym ryzyku zapisy ustawy AI Act narzucają jedynie obowiązek informacji o wykorzystaniu AI podczas interakcji z danym systemem. Dla systemów o minimalnym poziomie ryzyka nie przewiduje się dodatkowych regulacji.
Czytaj też: Coraz więcej krajów przeciwko ChatGPT. Sztuczna inteligencja musi podlegać kontroli
Do listy technologii związanych ze sztuczną inteligencją, które według zapisów AI Act mają być zakazane na terenie UE wlicza się stosowanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w miejscach publicznych i stosowanie zdalnych systemów identyfikacji biometrycznej. Wyjątek stanowi przypadek użycia ich przez organy ścigania przy poważnych przestępstwach, ale i do tego wymagana jest decyzja sądu.
Ukrócone ma być również pobieranie danych biometrycznych z mediów społecznościowych lub nagrań z monitoringu w celu tworzenia baz danych rozpoznawania twarzy, co stanowi naruszenie praw człowieka i prawa do prywatności.
AI Act – odważna/szalona próba regulacji AI na Starym Kontynencie
Podmioty, które nie dostosują się do unijnych regulacji czekają m.in surowe kary finansowe sięgające poziomu 30 mln euro albo ekwiwalent nawet 6% rocznego globalnego przychodu.
Dla Europy to swoiste być albo nie być, próba dogonienia świata technologii oraz sygnał dla innych regionów świata, że tzw. Wolna Amerykanka w AI powoli dobiega końca. Najwyższy czas, bo i tak w kontekście regulacyjnym jesteśmy nadal w tyle. Nie miejmy jednak złudzeń: klasyfikacja systemów oraz aplikacji, potencjalnych zastosowań, lista wymagań stawianych przed usługodawcami będzie jeszcze długo przedmiotem ożywionych debat oraz analiz specjalistów z branży AI.
Nie ulega też wątpliwości, że nadzoru nad systemami AI nie należy zostawiać w rękach technologicznych gigantów, bo wtedy niewiele się w obecnym obrazku zmieni.