Czy zdarzyło Ci się zauważyć, że gdy wpiszesz w ChatGPT bardziej złożone pytanie, na ekranie pojawia się komunikat: „Przeszukuję bazę… Zbieram informacje… Myślę…”?
Albo, że w oknie czatu pojawia się sformułowanie: „Rozumiem, mogę Ci w tym pomóc”?
Brzmi to naturalnie, ale czy rzeczywiście coś lub ktoś “myśli po drugiej stronie”?
Język, który tworzy iluzję
Współczesne narzędzia oparte na sztucznej inteligencji potrafią generować płynne i logiczne wypowiedzi, które brzmią, jakby były tworzone przez człowieka. Wrażenie, że maszyna rozumie i myśli, wynika jednak nie z jej możliwości, lecz z tego, jakim językiem się posługuje. Słowa takie jak „myślę”, „rozumiem” czy „mogę pomóc” tworzą iluzję rozmowy z kimś inteligentnym. W rzeczywistości to tylko język – zaprojektowany tak, by brzmieć naturalnie i budzić zaufanie.
Twórcy tych systemów celowo dobierają formuły, które wzmacniają wrażenie, że po drugiej stronie znajduje się myśląca istota. Dzięki temu kontakt z technologią staje się bardziej angażujący i przyjazny.
To tzw. technologiczne nadużycie językowe, nie jest to kłamstwo, ale zabieg mający sprawić, że użytkownik poczuje się bezpiecznie i będzie bardziej skłonny korzystać z narzędzia.
Efekt? Zaczynamy wierzyć, że rozmawiamy z kimś, a nie z maszyną.
Jak rodzi się nadpoleganie
Kiedy widzimy komunikaty w rodzaju „Myślę” czy „Rozumiem”, łatwo zapomnieć, że to tylko wygenerowane słowa. Zaczynamy ufać technologii bardziej, niż na to zasługuje. To zjawisko określa się jako nadpoleganie – sytuację, w której zbyt silnie wierzymy w wiarygodność systemu, który brzmi przekonująco, ale nie ma zdolności myślenia.
Im bardziej naturalny i profesjonalny język, tym łatwiej uwierzyć, że wyniki są pewne i dokładne. W efekcie przestajemy weryfikować informacje, nie sprawdzamy źródeł i przyjmujemy odpowiedzi bez zastanowienia.
To konsekwencja tego, jak działa komunikacja między człowiekiem a maszyną – ma ona wzbudzać zaufanie i sympatię, a nie przypominać, że mamy do czynienia z programem.
Jak zachować dystans i kontrolę
Choć komunikaty tworzone przez chatboty potrafią brzmieć pewnie i przekonująco, warto pamiętać, że są efektem algorytmu, a nie zrozumienia.
Dlatego najlepiej podchodzić do nich z ciekawością, ale też z własnym osądem.
Zanim uznamy coś za pewne, dobrze jest:
- zapytać o źródła,
- porównać odpowiedź z innym miejscem w sieci,
- traktować to, co widzimy, jako propozycję, a nie ostateczną prawdę.
Taki sposób korzystania z technologii pomaga utrzymać równowagę i nie dać się zwieść pozorom.
Odporność na językową manipulację
To, że sztuczna inteligencja potrafi “mówić o sobie”, że myśli czy rozumie, nie oznacza, że naprawdę to robi.
Warto rozwijać więc pewną odporność na językową manipulację, czyli świadomość, że sposób formułowania komunikatów może wpływać na nasze zaufanie i ocenę wiarygodności.
Zachowanie takiej uważności sprawia, że technologia pozostaje po naszej stronie, staje się pomocnym narzędziem, a nie źródłem złudzeń.
Bo to jednak człowiek, nie maszyna, powinien “mieć ostatnie słowo”.
Autor tekstu: Katarzyna Chodorowska










