Kiedy ostatni raz daliście się złapać na chwytliwy i jednocześnie kontrowersyjny tytuł w internecie, który po wejściu do środka nie dał wam nawet 1/10 tego co obiecywał i po prostu was oszukał? Clickbait potrafi przybrać postać raka toczącego wiele polskich serwisów (w tym również tych największych o ugruntowanej pozycji). Tak stanowcza opinia jest efektem własnych doświadczeń zawodowych. W przeszłości bywałem w miejscach, gdzie kazano mi specjalnie podkręcać tytuł, aby sprowokować czytelników do częstszego klikania w link. Dlatego z tym większym zaciekawieniem sprawdziłem wykorzystanie sztucznej inteligencji do walki z tym zjawiskiem na przykładzie aplikacji Artifact.
Clickbait – nienawidzimy go, a jednocześnie potrzebujemy
Jak tłumaczy Derek Muller z kanału Veritasium (swoją drogą, gorąco polecam!), clickbait jest wszędzie z jednego prostego powodu: bo działa. Na przykładzie samego YouTube’a bardziej angażujące tytuły i miniaturki po prostu lepiej się klikają: Cokolwiek przetrwa, mnoży się, a pożądane cechy ulegają wzmocnieniu. Jeśli nie żałujesz żyrafie jej długiej szyi, dzięki której może sięgać najwyższych liści, to czy możesz żałować YouTuberowi czerwonej strzałki, która pozwala mu dotrzeć do większej liczby odbiorców? – rzuca pytaniem Muller. A ja rzucam w przestrzeń własne pytanie o najważniejszą walutę w dzisiejszym świecie. Wiecie co nią jest? Nasz czas.
Niezależnie od tego jakiego typu treści konsumujecie w Sieci, nie dacie rady obejrzeć, przeczytać i przesłuchać wszystkiego. Siłą rzeczy trzeba wybierać, a jeśli twórca treści w tym informacyjnym tsunami nie będzie w stanie zainteresować nią czytelnika, to w zasadzie obydwaj przegrali. Jak już pewnie zauważyliście, definicja clickbaitu jest więc płynna, a granica smaku bywa sprawą indywidualną. Na szczęście gołym okiem jesteśmy w stanie odróżnić chamskie naciąganie krzykliwym tytułem od umiejętnego wzbudzania w czytelniku zainteresowania treścią i dostarczeniu mu tego, po co tu w zasadzie przyszedł.
Artifact eksperymentuje z AI do walki z clickbaitem
O samej aplikacji pisałem już nieco więcej przy okazji pierwszych testów tuż po oficjalnej premierze. Od samego początku Artifact nie boi się wykorzystywać potencjału sztucznej inteligencji. Na bazie własnego dużego modelu językowego (LLM – Large Language Model) wybiera artykuły dostosowane do preferencji czytelniczych użytkowników. W pewnym sensie od samego początku uczymy aplikację najciekawszych treści. Za sprawą współpracy z OpenAI i wykorzystania modelu GPT-4 każdy od niedawna artykuł można szybko streścić w punktach za sprawą funkcji Summary. Najnowsza propozycja Artifact zakłada możliwość oznaczania clickbaitu dowolnej treści jaką aplikacja podsuwa użytkownikowi. I tu jak tłumaczy w rozmowie z serwisem Wired jeden z twórców aplikacji, Kevin Systrom (notabene współtwórca Instagrama), problem często leży po stronie samego tytułu. Co z punktu widzenia wydawcy może być potencjalnym miejscem zdobycia większej liczby klików, dla nas czytelników stanowi powód do frustracji.
Użytkownik ma więc możliwość oznaczenia tytułu jak clickbait (Mark as Clickbait Title). W tym momencie aplikacja korzysta z pomocy modelu GPT-4 do przetworzenia go na bardziej informacyjny. Sprawdziłem to sobie na przykładzie jednego z nagłówków, który celowo ukrywał przede mną nazwę popularnego producenta lodów. Artifact po zgłoszeniu go jako clickbait podsunął mi po chwili nowy tytuł, dzięki któremu wiedziałem już wszystko, zanim jeszcze kliknąłem w link.
Nowy tytuł będzie domyślnie widoczny tylko dla mnie, ponieważ poprosiłem o zmianę. Jeśli jednak wystarczająco dużo osób zgłosi ten sam artykuł, recenzent ze strony Artifact może zdecydować, że będzie to domyślny tytuł dla wszystkich użytkowników. Oczywiście po wejściu w link zobaczymy już oryginalną wersję tytułu jaką przewidział dla niego źródłowy serwis. Docelowo GPT-4 zintegrowane z aplikacją ma być w stanie samodzielnie modyfikować nagłówki, ale póki co autorzy Artifact nie chcą mu oddać pełnej kontroli.
Artifact i jego walka z clickbaitem powinna być początkiem dyskusji
Nie ulega wątpliwości, że taka inicjatywa, jaką proponuje Artifact, może nam wszystkim utrudniać pracę. Wydawcy dostaną szału na myśl o tym, że ich wysiłki zmierzające do napędzenia jak największego ruchu na strony za sprawą niezliczonych sztuczek z tytułami mogą błyskawicznie spalić na panewce. Z drugiej strony jak słusznie zauważa Systrom: Nie ma sztywnej reguły mówiącej o tym, że każdy link do treści musi być opatrzony tym samym tytułem, który ktoś na sztywno zdecydował się pokazać. Z drugiej strony nadal mamy do rozwiązania jeden poważny problem – wiarygodność samych modeli generatywnej sztucznej inteligencji.
Czytaj też: 5 przykazań Microsoftu. Mają pomóc światu zapanować nad sztuczną inteligencją
Jeśli nie uporamy się najpierw ze zjawiskiem halucynacji, stronniczości oraz brakiem podstawowych regulacji w dziedzinie generatywnej sztucznej inteligencji, trudno będzie mi z tym tematem spokojnie zasnąć. Nie wiem komu bardziej ufać: ludziom czy systemom bez kontroli trenowanym na danych o wątpliwej jakości. Przy okazji: polecam waszej uwadze jeszcze jedno ciekawe narzędzie – aplikacja Boring Report dostępna na iOS. To kolejna próba (tym razem w pełnej krasie) odczarowania chwytliwych tytułów.