W badaniu udział wzięło 40 osób, 1 robot Pepper, a także prosta gra strategiczna, która miała sprawdzać racjonalność człowieka. Każdy z uczestników eksperymentu zagrał 35 razy. Dodatkiem do każdej partii były komentarze Peppera. Robot raz zachęcał człowieka, innym razem zniechęcał sugerując, że rywal jest fatalnym graczem i radzi sobie słabiej wraz z upływem czasu. W efekcie nieprzyjemnych słów, racjonalność wyborów w czasie gry spadała. Dodatkowo, ludzie sfrustrowani jego zachowaniem, przypisywali robotom raczej negatywne cechy. W drugim scenariuszu było odwrotnie – racjonalność rosła, a wraz z nią sympatia do urządzenia.
Co ważne, robota nikt nie ukrywał. Partycypujący w badaniu doskonale wiedzieli, że mierzą się z uwagami będącymi częścią eksperymentu. Mimo to Pepper ich dekoncentrował. Przy czym warto zauważyć, że jego negatywne spostrzeżenia i tak były dość eleganckie. Szczególnie w porównaniu z tym, co potrafią napisać lub powiedzieć obecni na czatach gier komputerowych. Kłopotliwe mogło być jedynie to, że Peppera nie dało się zablokować.
Naukowcy z Carnegie Mellon przedstawili wyniki eksperymentu czasie konferencji IEEE poświęconej komunikacji robotów i ludzi w indyjskim New Delhi. Jest to jedna z pierwszych prac, w której maszyny i ludzie nie współpracują, tylko konkurują ze sobą. Jej wyniki mogą przydać się twórcom gier, którzy będą mogli stworzyć bardziej interaktywnych przeciwników, którzy zwiększą zaangażowanie graczy. Twórcy badania przyznali, że warto też sprawdzić, w jaki sposób reagujemy nie tylko na słowa, ale też gesty maszyn. | CHIP