Śledztwo przeprowadzone przez amerykański magazyn Time ujawniło, że do procesu oznaczania i filtrowania szkodliwych treści z treningowego zestawu danych dla ChatGPT, OpenAI zaangażowała tanią siłę roboczą z Kenii. Organizacja nawiązała współpracę z firmą Sama, specjalizującą się w usługach oznaczania treści, rzekomo zapewniając przy tym krajom rozwijającym się “etyczną” i “godną pracę cyfrową”. Czy można się już śmiać?
Gdzie diabeł nie może, tam tanią siłę roboczą pośle
To było oczywiste, że zestaw danych przeznaczonych do treningu konwersacyjnego chatbota musiał zostać odpowiednio przygotowany. Zawiera bowiem treści zassane z miliardów najróżniejszych stron internetowych. Swoją drogą, poprzednia wersja modelu GPT dawała dobitne przykłady jak może się skończyć filtrowanie po łebkach (generowała teksty seksistowskie, rasistowskie czy po prostu nasycone brutalnością).
Jeśli OpenAI miała uniknąć wtopy i chciała zaczarować użytkowników elokwencją swojego rozwiązania, trzeba było zakasać rękawy. Pojawił się słynny imperatyw “tanio i dobrze”. A gdzie najlepiej sięgnąć, jak nie do krajów rozwijających się, gdzie bezrobocie jest wyjątkowo wysokie, a stawki wyjątkowo niskie? I tak pojawili się pracownicy z Kenii, którym za 1,32 do 2 dolarów za godzinę przydzielono zadanie filtrowania traumatycznych treści z bazy treningowej dla ChatGPT, za pośrednictwem wspomnianego pośrednika.
Jeden z pracowników Sama w rozmowie z magazynem Time przyznał, że praca dla OpenAI przypominała wielogodzinne tortury, a jeden z opisów stosunku seksualnego mężczyzny z psem w obecności dziecka jeszcze długo nie dawał mu spokoju. A to tylko wierzchołek góry lodowej i próbka treści, które musieli każdego dnia czytać nisko opłacani moderatorzy. Niestety, taki przypadek nie jest w tej branży odosobniony.
Muszę was zmartwić – AI nie jest takie mądre samo z siebie
Firmy zajmujące się rozwijaniem sztucznej inteligencji często korzystają z potężnych zasobów w postaci ludzkiej moderacji, aby utrzymać wrażenie, że ich rozwiązanie z wierzchu prezentuje się bez zarzutu. Jako użytkownicy często nie mamy pojęcia co dzieje się pod maską (albo raczej na zapleczu).
Czytaj też: ChatGPT ssie! Gwiazda rocka nie ma co do tego żadnych wątpliwości
Kraje bogate, stabilne gospodarczo i politycznie, w których przestrzega się praw człowieka i praw pracowniczych, określane są często mianem Globalnej Północy. Globalne Południe to z kolei państwa borykające się z biedą, targane wojnami i konfliktami wewnętrznymi, niedorozwinięte ekonomicznie. Oczywiście podział jest umowny i nie musi być do końca podyktowany przez położenie na mapie (przykład Australii). To między innymi katastrofalna dysproporcja między obiema grupami w ogólnej sytuacji życiowej, doprowadza do wykorzystywania taniej siły roboczej. W pewnym sensie można to uznać za niewolnictwo 2.0, ponieważ często dla tych ludzi taka “brudna praca” może być jedynym źródłem utrzymania dla nich i ich rodzin.
Mleko się rozlało, więc się przesiądziemy
Sama, czyli firma wykonująca zlecenia związane z oznaczaniem i filtrowaniem danych dla OpenAI, postanowiła wycofać się ze współpracy przy ChatGPT. Co ciekawe, stało się to już w lutym 2022 roku, osiem miesięcy przed terminem zakończenia kontraktu. Wpływ mogła mieć na to inna publikacja magazynu Time, dotycząca usług wykonywanych dla firmy Meta, właściciela Facebooka.
O moderatorach treści w serwisach społecznościowych można by napisać osobny materiał. Wystarczy wspomnieć, że w tym konkretnym przypadku Sama oferowała pracownikom 1,5 dolara za godzinę oglądania zdjęć i filmów, wśród których nie brakowało egzekucji, gwałtów i molestowania dzieci. Po publikacji Time, firma podjęła decyzję o rozwiązaniu współpracy z OpenAI, a w ubiegłym tygodniu zapowiedziała zakończenie świadczenia usług na rzecz spółki Meta.
Wszystko fajnie, ale jak w systemie naczyń połączonych, wielu dotychczasowych pracowników Sama zostało w ten sposób pozbawionych ważnego źródła dochodów. Czujecie ten bezsens sytuacji, w której się znajdują? Dla kontrastu, Sama z siedzibą w San Francisco mogła na czysto zarobić w 2022 roku nawet 19 mln dolarów. Coś z tym naszym światem jest fundamentalnie nie w porządku.