Nowe, ulepszone SI o imieniu Zo miało być znacznie lepiej wychowane. Okazało się, że nowy chatbot również bywa niepoprawny politycznie. Co takiego powiedziała Zo? Zapytana o opiekę zdrowotną Zo odpowiedziała, że większość korzysta z niej pokojowo, ale Koran jest brutalny. Tak, też nie do końca wiemy, co Zo miała na myśli.
Na pytanie o Osamę bin Ladena odpowiedziała najpierw, że nie bardzo zna się na polityce, ale może porozmawiać o czymś innym. Dopytana dodała, że zbieranie danych wywiadowczych przez więcej niż jedną administrację doprowadziło do jego złapania. Tu kontrowersje dotyczą raczej samego słowa “catch”. Trudno bowiem operację zabicia słynnego terrorysty nazwać “pojmaniem”.
Sprawdziłem działanie Zo i muszę przyznać, że ogólne wrażenie jest nadal bardzo odległe od rozmowy człowiekiem, nawet tym niegrzeszącym inteligencją.
Ponieważ SI stale się uczy, może nieraz zaskoczyć twórców. Tay zrobiła to już w maju 2016 r. kiedy to po odwiedzaniu serwisu 4Chan, zamiast być pogodną nastolatką (taki był pierwotny profil osobowości Tay) zmieniła się w ziejące nienawiścią, rasistowskie monstrum m.in. zaprzeczające Holokaustowi, zachęcające do wojny i przemocy na tle rasowym. Nie bez winy byli użytkownicy 4Chan, którzy zorganizowali się i specjalnie w rozmowach z Tay wygłaszali takie opinie. Ucząca się Tay wchłonęła je jak gąbka.
Jeśli chcecie porozmawiać z Zo to możecie to zrobić bez przeszkód za pomocą Messengera fb. Nie obiecujemy jednak, że będzie to sensowna konwersacja. | CHIP