
Coraz mniej zaskakuje nas to, iż po drugiej stronie czatu może nie być człowieka. Jednak sposób, w jaki chatbot udaje człowieka — albo celowo tego nie robi — może radykalnie zmieniać skuteczność jego działania. Nowe badanie z Uniwersytetu Wisconsin-Milwaukee prowokuje do przemyślenia dominującego paradygmatu projektowania „ludzkich” botów.
Zebrane dane pokazują, iż w określonych zastosowaniach, takich jak sprzedaż czy zbieranie datków, bardziej neutralny, „maszynowy” charakter AI może być bardziej efektywny niż bot ubrany w ludzkie gesty i emocje. To zaskakujące, biorąc pod uwagę rosnące inwestycje firm w rozwój tzw. empatycznych interfejsów.
Zbyt ludzki bot zaniża cenę
Scott Schanke, ekonomista i badacz komunikacji człowiek–maszyna, przetestował różne typy chatbotów w kontekście sprzedaży odzieży z drugiej ręki. Niektóre z nich były suchymi, faktograficznymi automatami, inne miały imiona, robiły pauzy i żartowały. Wynik? Antropomorficzne boty częściej prowokowały użytkowników do targowania się. Z punktu widzenia sprzedawcy oznacza to obniżenie marży i mniej korzystne transakcje.
Użytkownicy intuicyjnie odczytują „ludzki” interfejs jako zaproszenie do negocjacji, czyli do zachowań typowych dla relacji międzyludzkich. To spostrzeżenie może mieć istotne znaczenie nie tylko dla e-commerce, ale także dla sektora usług czy obsługi klienta, gdzie skracanie dystansu z klientem nie zawsze przynosi wymierne korzyści.
Emocjonalna przesada? Uwaga na darczyńców
Jeszcze bardziej przewrotny efekt pojawił się w eksperymencie dotyczącym zbierania datków na cele społeczne. Gdy chatbot organizacji non-profit w Minneapolis zbyt mocno udawał emocjonalnego rozmówcę, skuteczność kampanii spadała. Darczyńcy mniej chętnie otwierali portfele, gdy AI – zamiast informować – próbowało wzbudzić współczucie.
To wyraźny sygnał, iż kontekst emocjonalny nie lubi przesady. Tam, gdzie odbiorca jest już zaangażowany emocjonalnie, dodatkowe „ciepło” ze strony maszyny może zostać odebrane jako manipulacja. W czasach rosnącej świadomości konsumenckiej i nieufności wobec automatyzacji, to niepokojący efekt.
Klony głosu – technologia na granicy etyki
Najbardziej futurystyczna część badania dotyczyła botów, które nie tylko mówiły jak człowiek, ale potrafiły naśladować konkretny głos użytkownika. Mimo iż uczestnicy eksperymentu byli informowani, iż chatbot nie jest wiarygodnym źródłem, to… i tak mu ufali, jeżeli mówił ich własnym głosem.
Ta technologia, choć fascynująca, budzi oczywiste wątpliwości etyczne. W dobie deepfake’ów i manipulacji medialnych, możliwość podszywania się pod czyjś głos to broń obosieczna. Może poprawić skuteczność kampanii marketingowej, ale równie dobrze posłużyć do oszustw czy dezinformacji. Dlatego komercjalizacja takich rozwiązań będzie musiała iść w parze z nowymi regulacjami i kontrolą nad wykorzystaniem danych głosowych.
Projektowanie botów zależne od kontekstu
Z badań Schankego płynie jednoznaczny wniosek: skuteczność chatbotów nie zależy od tego, jak bardzo przypominają człowieka, ale od tego, w jakim kontekście są wykorzystywane. W sprzedaży bardziej opłaca się chłodna, rzeczowa maszyna niż miły „asystent”. W kampaniach charytatywnych – prostota i informacja lepiej działają niż emocjonalne komunikaty. A tam, gdzie stawką jest zaufanie, naśladowanie głosu użytkownika może być skuteczne, ale kosztowne moralnie.
To cenne wskazówki dla projektantów i firm, które stawiają na automatyzację komunikacji. Nadawanie botom ludzkich cech nie powinno być domyślnym wyborem – powinno być świadomą decyzją uzależnioną od celu, branży i typu relacji z użytkownikiem.
Zamiast empatii – strategia
Technologie konwersacyjne wchodzą w nową fazę rozwoju. Lata 2020–2023 przyniosły wzrost inwestycji w human-like AI, ale jak pokazuje badanie Schankego – przyszłość chatbotów może leżeć nie w tym, by były bardziej ludzkie, ale mądrze zaprojektowane. Czas porzucić uniwersalne szablony i zacząć myśleć o botach jak o narzędziach – które, jak każde inne, trzeba dopasować do kontekstu użycia.