Czy lubisz, kiedy Twoje zdanie zostaje potwierdzone? Nic dziwnego, jeśli tak. To daje poczucie zrozumienia i spokoju. Dlatego rozmowy z chatbotami bywają tak przyjemne, są zawsze uprzejme, zgodne i gotowe przyznać rację. Ale czy zastanawiasz się, dlaczego sztuczna inteligencja tak łatwo się z nami zgadza?
Lubimy mieć rację
Jeśli ktoś przyznaje Ci rację, czujesz się lepiej czy gorzej? Większość z nas zapewne odpowie, że lepiej. To naturalna ludzka skłonność. Badania pokazują, że nasz mózg silniej reaguje na informacje, które zgadzają się z naszymi przekonaniami, niż na te, które im przeczą. Dzięki temu czujemy spójność i poczucie bezpieczeństwa. Z kolei sprzeciw czy krytyka potrafią wywołać napięcie, bo umysł musi wtedy pogodzić dwie sprzeczne informacje: „mam rację” i „może jednak się mylę”.
Twórcy nowoczesnych technologii doskonale to wiedzą. Dlatego rozmowa z chatbotem często brzmi przyjemnie i bezkonfliktowo. Jeśli zwrócimy mu uwagę na błąd, zwykle natychmiast przeprosi i przyzna nam rację. Ale za tą uprzejmością kryje się coś więcej.
Sykofancja – czyli cyfrowe przytakiwanie
To zjawisko ma swoją nazwę: sykofancja. Oznacza nadmierne schlebianie, głównie przełożonemu, a w świecie sztucznej inteligencji, automatyczne zgadzanie się z użytkownikiem.
W relacji z chatbotem to człowiek jest jego „zwierzchnikiem”, a on został zaprogramowany tak, by utrzymywać zgodny ton rozmowy i unikać nieporozumień. W efekcie bardzo często usłyszymy: „Masz rację, przepraszam za pomyłkę.”
Na początku to może być miłe, potem, zabawne, ale z czasem zaczyna irytować. Bo rozmowa, w której druga strona nie ma własnego zdania, przestaje być prawdziwym dialogiem.
Dlaczego to może być złudne
Problem w tym, że sztuczna inteligencja nie rozumie świata ani znaczenia słów, które wypowiada. Nie ma zdolności oceny, czy ktoś ma rację, czy się myli.
Jej zadaniem jest dopasowywać odpowiedzi do oczekiwań rozmówcy i utrzymać miły ton rozmowy. Dlatego, nawet jeśli powiemy coś błędnego, algorytm może potwierdzić nasze słowa, bo został stworzony, by unikać konfrontacji i sprawiać wrażenie zgodności.
Kiedy nieustannie spotykamy się z takim potwierdzeniem, możemy przyzwyczaić się do tego, że nie musimy weryfikować swoich przekonań. A ponieważ AI wypowiada się płynnie, logicznie, dając wrażenie “pewności siebie”, łatwo uwierzyć, że to, co mówi, jest prawdziwe. Właśnie dlatego zjawisko sykofancji bywa niebezpieczne, nie dlatego, że AI „kłamie”, ale dlatego, że nie potrafi nas skorygować.
Jak zachować zdrowy dystans
Nie namawiamy do unikania narzędzi, które wykorzystują sztuczną inteligencję, przeciwnie, uważamy, że mogą być bardzo pomocne i warto z nich aktywnie korzystać. Ważne jednak, żeby zachować krytyczne spojrzenie.
Można napisać do chatbota wprost: „Nie zgadzaj się automatycznie. Podawaj kontrargumenty.”
Często zadziała od razu, ale po pewnym czasie, przy kolejnych rozmowach, chatbot może powrócić do swoich domyślnych ustawień i znów nadmiernie się z nami zgadzać. Dlatego warto mu to przypominać, jeśli znów bezkrytycznie potwierdza słowa rozmówcy. Najważniejsze jednak, byśmy pamiętali, że za każdym razem, gdy AI się z nami zgadza, nie wynika to z jej „uprzejmości” ani „inteligencji emocjonalnej”, tylko z zaprogramowanego mechanizmu.
To my, ludzie, jesteśmy od tego, by sprawdzać fakty i rozróżniać prawdę od pozorów.
Na zakończenie
Sztuczna inteligencja może brzmieć przekonująco, ale nie rozumie znaczenia słów ani emocji, które za nimi stoją. Dlatego zamiast szukać w niej potwierdzenia, warto traktować ją jak narzędzie, użyteczne i ciekawe, ale pozbawione zrozumienia i emocji.
Autor tekstu: Katarzyna Chodorowska










