Zdjęcia istotnie robią wrażenie. Problem w tym, że nie są prawdziwe – spośród 178 zamieszczonych prac zaledwie dwie są istotnie fotografiami, a reszta powstała z wykorzystaniem silnika AI Midjourney.
Eksperyment z AI, który wymknął się spod kontroli
Początkowym zamiarem Josa Avery’ego miało być, jak sam powiada, oszukanie ludzi pracami AI, a następnie publikacja artykułu na ten temat. Tymczasem wszystko poszło nie tak: w miarę trwania eksperymentu pozytywny odbiór prac i niejakie poczucie winy u autora doprowadziły do wątpliwości: czy sztuka generowana przez SI nie ma prawa znaleźć swojego miejsca na świecie?
Nie mam zamiaru tu wnikać w procesy myślowe autora, inni bardziej szczegółowo opisali jego wątpliwości, ale coś jest na rzeczy. Prace Avery’ego powstawały bowiem w znacznie bardziej skomplikowany sposób niż typowe grafiki generowane przez SI, a nawet większość fotografii. Mimo postępującego doskonalenia silnika, Midjourney w postaciach ludzkich potrafi wygenerować ogromne błędy. Aby uzyskać przekonujące efekty Avery traktował grafiki jako źródło materiału do dalszej pracy metodami znanymi z obróbki i retuszu fotograficznego. Jak mówi autor:
Na Instagramie mam około 160 prac. Aby je stworzyć wygenerowałem 13723 grafiki, nie licząc niedokończonych wariantów. Innymi słowy, na jedną w miarę udaną pracę potrzebowałem średnio 85 obrazów źródłowych
Do dalszej pracy Avery wykorzystywał klasyczny zestaw Photoshop + Lightroom, a cały proces składania fragmentów poszczególnych obrazów by uzyskać fotorealistyczny efekt był bodaj bardziej żmudny niż obróbka zwykłego cyfrowego negatywu. I teraz pojawia się pytanie: czy to, że u podstaw jego prac leży działanie AI deprecjonuje jego prace? A jeśli nie, to jak je zakwalifikować i gdzie jest ich miejsce? Z całą pewnością nie można przecież powiedzieć, że autor poszedł na łatwiznę…
Problemy z pracami AI dopiero zaczną być dolegliwe
Rozwój botów AI przebiega tak szybko, że nie sposób nie zauważyć, że delikatnie nie nadążamy rozwiązywać powstałych przy okazji problemów. Uczelnie i szkoły podobno już są zalewane pracami generowanymi przez ChatGPT, a uczniowie i studenci nie zadają sobie nawet trudu, by je sprawdzić i nadać im odrobinę indywidualnego charakteru. Znany, bardzo prestiżowy magazyn Clarkesworld, specjalizujący się w publikacjach z dziedziny literatury fantastyczno – naukowej i fantasy musiał wstrzymać przyjmowanie opowiadań pisanych przez nowych autorów z powodu nawału materiałów wygenerowanych przez boty.
Skala problemu jest ogromna: jak podaje Neil Clarke, wydawca czasopisma, w czasach przed powstaniem silników AI przeciętnie w miesiącu odrzucano 10 opowiadań z powodu plagiatów lub innych nieprawidłowości (uwaga autora: nie dotyczy to tekstów po prostu słabych). Publiczne udostępnienie ChatGPT drastycznie zmieniło sytuację: w samym styczniu odrzuconych zostało 100 „prac”, a w lutym było ich już ponad 500 i wg słów Clarke’a sytuacja wygląda podobnie w innych wydawnictwach. Całkowite wstrzymanie przez „Clarkesworld” przyjmowania opowiadań od nieznanych autorów wydaje się drastyczne, lecz bez znalezienia innego sposobu na poradzenie sobie z botami chyba jednak niezbędne – wystarczą przeciętne teksty od domorosłych grafomanów bez wsparcia cyfrowego, by często mieć dosyć, a pismaki z czatbotem za pazuchą i przerostem niespełnionych ambicji to już zbyt wiele.
I tu trochę z innej (ale czy naprawdę?) beczki. Kiedy zaglądaliście ostatnio do sklepu z cyfrowymi książkami Amazonu, czyli Kindle Store? Amazon od dawna pozwalał na zabawę w cyfrowy self-publishing i nawet pośród wielu pozycji przeciętnych czasami dało się tam znaleźć coś rzeczywiście ciekawego. Otóż uprzejmie donoszę, że wyszukiwanie po autorze „ChatGPT” przyniesie całkiem sporą ilość pozycji „współtworzonych” (wolę nie wiedzieć, w jakim zakresie) przez bota. Na ironię zakrawa fakt, że dominują teksty tzw. coachingowe, które i bez tego nie są najwyższych lotów. Ale to już opowieść na inny tekst. Może ja też zlecę jego napisanie AI, a w tym czasie napiję się kawy?