Microsoft wie o wadach chatbota Bing i nieustannie łata dziury. Część z błędów jest jednak wręcz kuriozalna
Nowa era wyszukiwanie informacji w Internecie – tak oto możemy określić ostatnie zapowiedzi firmy Microsoft oraz Google, które dotyczą integracji specjalnych chatbotów bezpośrednio w wyszukiwarki. To coś nowego, a jak to z nowościami w technologii jest, te nie zawsze są idealne i wymagają szlifowania jeszcze długo po premierze. Świetny tego przykład zapewniły nam ostatnio nowe chatboty, które nawet podczas prezentacji pokazały światu, że lepiej nie wierzyć we wszystko, co generują w odpowiedzi na nasze pytania.
Czytaj też: Nowy Bing po polsku – pierwsze wrażenia. Sztuczna inteligencja kazała mi ruszyć tyłek i ogarnąć swoje życie
Podczas zeszłotygodniowej prezentacji możliwości sztucznej inteligencji zaszytej w wyszukiwarkę Bing, Microsoft nieco się ośmieszył. Chatbot nie wykrył istnienia dwóch wariantów odkurzacza (bezprzewodowego i przewodowego), nie zapewniał ważnych szczegółów przy próbie zaplanowania 5-dniowej wycieczki do Meksyku, a przede wszystkim zakręcił się przy danych finansowych tak, że popularne niegdyś matematyczne wpadki ChatGPT to przy tym pikuś. Analizując raport finansowy, dzieło Microsoftu myliło wartości i na dodatek generowało nawet te zupełnie nieistniejące, popełniając błędy, których apogeum osiągnięto przy porównaniu podobnych dokumentów dwóch różnych firm.
Czytaj też: Sprawdziłem, jak działa nowy Bing. Internet zmieni się nie do poznania
Na tym jednak wpadki chatbota Bing wykorzystującego technologię ChatGPT się nie skończyły. Po tym, jak Microsoft zaczął zapewniać ludziom z całego świata dostęp do niego, ci zaczęli zgłaszać szereg problemów, które go dręczą. Jednych użytkowników zapewniał, że żyjemy ciągle w 2022 roku, drugich, że Chorwacja opuściła Unię Europejską, a jeszcze innych zaczął zaopatrywać w obelgi. Bing jednak nie tylko kłamie – jest coś gorszego.
Czytaj też: ChatGPT-4 trafi do wyszukiwarki Microsoftu szybciej, niż myśleliśmy. Zamienisz Google na Binga?
Użytkownicy zaczęli zgłaszać nie tylko fałszywe odpowiedzi, ale też momenty, w których chatbot Bing wpada w istny “szaleńczy tryb“. Ba, na podstawie niektórych zrzutów ekranu można nawet dojść do wniosku, że chat ma uczucia i można go nawet wyprowadzić z równowagi. Spokojnie jednak – to tylko system, a nie uprowadzony i natępnie wpięty do komputera obcy, który przyleciał na jednym z balonów do USA i próbuje się porozumieć ze światem. Firma Microsoft jest świadoma tych błędów i patrząc na to, jak szybko reaguje na zgłaszane problemy (zweryfikowaliśmy, że te powyższe są już historią), rozwiąże je prędzej lub później, a kiedy to nastąpi, chatbot Bing będzie przez nas wykorzystywany na porządku dziennym.