Czy to pierwszy w Polsce kryzys literacki, który wybuchł nie przez człowieka, ale przez sztuczną inteligencję – i czy to zmieni zasady wydawania książek?
Kryzys, który przyszedł z dwóch stron naraz
Informacja o tym, że w książce „Teoria Spisku” Karoliny Opolskiej model AI miał wygenerować nieistniejące źródła, przekształciła lokalną literacką wpadkę w ogólnopolski kryzys reputacyjny. Dane Instytutu Monitorowania Mediów pokazują skalę, którą zwykle widzimy przy aferach politycznych, a nie przy premierach książek.
Między 5 a 19 listopada przekaz dotarł do 4 mln potencjalnych kontaktów.
Z tego:
1,6 mln – media klasyczne
2,4 mln – media społecznościowe
Jak zauważa Tomasz Lubieniecki z IMM:
„Dominujący ton we wpisach jest zdecydowanie negatywny. Sprawa stała się dyskusją o moralności i wiarygodności osób publicznych, a jednocześnie o narastającej nieufności wobec nowych technologii.”
Gdzie poszło najmocniej? Dlaczego?
Jaką rolę zagrały media klasyczne?
Według IMM największy udział miały portale internetowe – 72,9% całego zasięgu.
Prasa, telewizja i radio dopiero dołączały do dyskusji, gdy temat już żył własnym życiem.
To klasyczna trajektoria kryzysu: portale „przyciągają”, telewizje „legitymizują”.
Co stało się w social mediach?
Tutaj wynik mówi wszystko:
X (Twitter) – 72,7%
Facebook – 11,8%
YouTube – 9%
Instagram – 4,5%
To X stworzył atmosferę oskarżeń i szybkich sądów, gdzie użytkownicy w ciągu godzin zaczęli konstruować własne narracje: od zarzutu o nadużycie zaufania odbiorców, po tezę, że „AI przejmuje kulturę”.
Czy winna jest AI… czy człowiek?
To pytanie wracało w setkach komentarzy.
W wielu z nich pojawiały się te same motywy:
„AI nie powinna tworzyć źródeł”
„Dziennikarz musi weryfikować każdą informację”
„To sygnał, że branża nie ma standardów pracy z AI”
Problem polega na czymś prostym:
Modele AI nie wiedzą, co jest prawdą. Wiedzą tylko, co brzmi jak prawda.
Brak procesu redakcyjnego i kontroli mógł doprowadzić do sytuacji, którą czytelnicy odebrali jako świadome wprowadzenie w błąd.
Dlaczego kryzys eskalował tak gwałtownie?
Czytelnicy nie wybaczają AI tam, gdzie powinien stać człowiek
To jeden z najważniejszych wniosków.
Gdy w książce fiction coś jest zmyślone – nikt nie protestuje.
Ale gdy w książce publicystycznej zaczynają pojawiać się nieistniejące źródła – reakcja jest natychmiastowa.
„Efekt braku natychmiastowego oświadczenia”
Brak wczesnej, wyczerpującej reakcji autorki i wydawnictwa otworzył przestrzeń na pogłoski i emocje.
W praktyce:
kto pierwszy opowie historię – ten ją wygrywa.
Tu pierwsi byli internauci.
Czy to zmieni rynek książki w Polsce?
Eksperci od wydawnictw prywatnie mówią już o konieczności:
oznaczania wykorzystania AI w procesie pisania,
wprowadzania polityki weryfikacji źródeł,
tworzenia redakcyjnych protokołów przeciw „halucynacjom AI”,
przeszkolenia autorów z odpowiedzialnego korzystania z modeli generatywnych.
To właśnie dlatego sprawa Opolskiej jest taka istotna:
otwiera pierwszy poważny rozdział sporu o przyszłość książki w czasach AI.
Jakie mogą być konsekwencje dla autorki?
Ryzyka:
naruszenie wiarygodności zawodowej
utrata zaufania czytelników
trudności przy kolejnych projektach
narracja mediów o „pierwszej polskiej aferze AI”
Możliwa szansa:
Jeżeli Opolska zdecyduje się na pełną transparentność, opisanie procesu pracy, a nawet ujawnienie błędów – kryzys może stać się punktem zwrotnym, a nie końcem.
Wnioski: co dalej?
To nie jest kryzys jednej książki.
To pierwszy polski test społecznej akceptacji technologii generatywnej.
I test, który pokazał jedno:
Czytelnicy chcą pewności, że człowiek stoi na straży prawdy.
AI może być narzędziem, ale nie może być ostatnią instancją.
Rynek wydawniczy – chcąc czy nie – będzie musiał na to odpowiedzieć.
Źródło:
Instytut Monitorowania Mediów (IMM), analiza 5–19.11.2025.

