Dlaczego atrakcyjna nieprawda wygrywa z dowodem? To pytanie wraca jak bumerang — i nie dotyczy wyłącznie polityki. Ostatni wiral z „międzygwiezdną” kometą 3I/ATLAS pokazuje mechanizm w czystej postaci: emocja + prestiż źródła + efektowny obraz = przekaz, który omija weryfikację. Gdy dorzuci się „naukowe” logo, odbiorca dostaje skrót myślowy zamiast dowodu. Oficjalne materiały z ESA czy zdjęcia z Hubble Space Telescope są mniej widowiskowe — rozmyta koma, pył i lód. Prawda przegrywa z klikalnością.
Ten sam mechanizm opisaliśmy wcześniej w tekście „Prawica i psycholog. Dlaczego część Polaków nie ufa pomocy”. Nie chodzi o „prawicę” jako etykietę partyjną, lecz o styl poznawczy: większą wrażliwość na zagrożenie, porządek i autorytet, mniejszą tolerancję niejednoznaczności. W takim układzie wiral działa jak skrót bezpieczeństwa — daje prostą odpowiedź i poczucie kontroli. Dowód, który wymaga cierpliwości, bywa odbierany jako niepewny.
Bańki, mosty i progi
Badacze z Politechnika Warszawska zaproponowali model dwóch baniek opinii połączonych „mostami” realnego wpływu (znajomi, lokalni liderzy, media). Model nie rozstrzyga, kto ma rację — pokazuje jak rozchodzą się opinie. Gdy mosty są słabe, grupy mówią do siebie. Gdy jeden obóz zyskuje miażdżącą przewagę zasięgu, system może skokowo zlepić się w jeden, ostry przekaz — nawet fałszywy. To przejście progowe znane z fizyki.
W praktyce oznacza to jedno: krzykliwa kampania bywa przeciwskuteczna. Lepiej budować wiele mniejszych, wiarygodnych mostów niż jedną megafonię. Przy asymetrii (jedni idealizują, drudzy się odpychają) pojawiają się oscylacje: afera → sprostowanie → kolejna afera. Znamy to aż za dobrze.
Inokulacja poznawcza: szczepionka na fejki
Psychologia dorzuca narzędzie, które działa zanim pojawi się fałsz: inokulację. Krótkie ćwiczenia uczą rozpoznawać chwyty manipulacji (fałszywy autorytet, selektywne dane, granie strachem). Przeglądy badań (m.in. JAMA) pokazują skuteczność — z zastrzeżeniem: efekt słabnie w czasie, potrzebne są „boostery”.
Polskie zespoły potwierdzają niuanse:
Uniwersytet Jagielloński: inokulacja zmniejsza „efekt ciągłego wpływu” — pierwsze kłamstwo rzadziej wygrywa ze sprostowaniem.
SWPS Uniwersytet Humanistycznospołeczny: gry uczą rozpoznawania technik od środka; pomaga identyfikować fejki, choć przełożenie na decyzje bywa ograniczone.
SGGW + SWPS: ostrzeganie o źródłach propagandy działa czasem — wyniki są wrażliwe na kontekst.
Najlepszym „case’em” są lokalne akcje „Babciu, Dziadku… Nie daj się oszukać”. Uprzedzenie o schemacie przed telefonem zwiększa szansę, że ofiara rozpozna wzór i się rozłączy. Proste. Skuteczne. Do powtarzania.
Prawo: obowiązek oznaczania
Od 2024 r. UE wdraża Akt AI (2024/1689). W skrócie: jasne oznaczanie treści generowanych lub istotnie zmienionych przez AI, w tym deepfake’ów, oraz informowanie o rozpoznawaniu emocji. To nie cenzura, lecz transparentność — odbiorca ma wiedzieć, z czym obcuje.
Wniosek, którego nie da się podważyć
Fikcja wygrywa nie dlatego, że jest „sprytniejsza”, lecz dlatego, że lepiej karmi emocje i skraca drogę decyzyjną. Jeśli chcemy zmniejszyć jej zasięg, nie wystarczy głośniej krzyczeć „to nieprawda”. Trzeba:
budować mądre mosty zamiast megafonów,
stosować inokulację z dawkami przypominającymi,
oznaczać treści AI,
szanować różnice stylów poznawczych — bez moralizowania.
Inaczej kolejna kometa znów stanie się statkiem kosmicznym. A my — widownią, która klika szybciej, niż myśli.
Autor Rafał Chwaliński
Źródła informacji
Radio DTR – artykuł redakcyjny:
Prawica i psycholog. Dlaczego część Polaków nie ufa pomocy
portal radio-dtr.livePolitechnika Warszawska – badania nad modelami polaryzacji opinii i dyfuzją przekazów w sieciach społecznych, publikacje w Physical Review E.
Uniwersytet Jagielloński – badania nad „efektem ciągłego wpływu” i skutecznością korekt dezinformacji po uprzedniej inokulacji poznawczej.
SWPS Uniwersytet Humanistycznospołeczny – eksperymenty psychologiczne dotyczące treningów rozpoznawania manipulacji (gry i symulacje narracji dezinformacyjnych).
SGGW & SWPS – badania nad wpływem informacji o źródłach dezinformacji (m.in. narracje propagandowe) na ocenę wiarygodności treści.
Journal of the American Medical Association (JAMA) – przeglądy badań dotyczących inokulacji poznawczej i odporności na dezinformację.
European Space Agency (ESA), Hubble Space Telescope, Gemini/NOIRLab, ExoMars – oficjalne materiały obserwacyjne dotyczące komet (koma, ogon, interpretacja danych astronomicznych).
Unia Europejska – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 („Akt o sztucznej inteligencji”) – obowiązki oznaczania treści generowanych lub modyfikowanych przez AI, w tym deepfake’ów.







