Na Press.pl najważniejsze newsy o mediach i reklamie na bieżąco  |  Zapraszamy na naszego Facebooka i X – podyskutujmy  |  Z pełnym wydaniem newslettera "Presserwis" wracamy na Wasze skrzynki mailowe już w poniedziałek  |  Chcesz zamówić newsletter "Presserwis"? Kliknij tutaj  |  Od początku stycznia w salonach prasowych także nowy numer magazynu "Press"  |  Kliknij tutaj, by zobaczyć zapowiedź nowego numeru. Michał Przedlacki Dziennikarzem Roku 2025, afera z książką Opolskiej, a także „Tygodnik Powszechny” wchodzi w nową erę i kto zarabia na AI – polecamy!  | 

Na Press.pl najważniejsze newsy o mediach i reklamie na bieżąco  |  Zapraszamy na naszego Facebooka i X – podyskutujmy  |  Z pełnym wydaniem newslettera "Presserwis" wracamy na Wasze skrzynki mailowe już w poniedziałek  |  Chcesz zamówić newsletter "Presserwis"? Kliknij tutaj  |  Od początku stycznia w salonach prasowych także nowy numer magazynu "Press"  |  Kliknij tutaj, by zobaczyć zapowiedź nowego numeru. Michał Przedlacki Dziennikarzem Roku 2025, afera z książką Opolskiej, a także „Tygodnik Powszechny” wchodzi w nową erę i kto zarabia na AI – polecamy!  | 

Na Press.pl najważniejsze newsy o mediach i reklamie na bieżąco  |  Zapraszamy na naszego Facebooka i X – podyskutujmy  |  Z pełnym wydaniem newslettera "Presserwis" wracamy na Wasze skrzynki mailowe już w poniedziałek  |  Chcesz zamówić newsletter "Presserwis"? Kliknij tutaj  |  Od początku stycznia w salonach prasowych także nowy numer magazynu "Press"  |  Kliknij tutaj, by zobaczyć zapowiedź nowego numeru. Michał Przedlacki Dziennikarzem Roku 2025, afera z książką Opolskiej, a także „Tygodnik Powszechny” wchodzi w nową erę i kto zarabia na AI – polecamy!  | 

Temat: prasa

Dział: PRASA

Dodano: Styczeń 18, 2026

Narzędzia:

Drukuj

Drukuj

Technika błędu. Afera z książką Karoliny Opolskiej rozpala debatę o granicach AI

„Ogromnie mi przykro, że w książce są błędy. Natomiast nie chcę się zgodzić z tym, żeby ten błąd miał mnie całkowicie skreślać, a dyskusja deprecjonuje wszystko, co przez ostatnie 20 lat zrobiłam” – stwierdza Karolina Opolska, obecnie dziennikarka TVP i zastępczyni Jacka Żakowskiego na Uniwersytecie Civitas (screen: YouTube/TVP Info)

Książka Karoliny Opolskiej „Teoria spisku, czyli prawdziwa historia świata” wywołała dyskusję o granicach użycia AI w dziennikarstwie.

Nakładem Wydawnictwa Harde w październiku 2025 roku ukazała się książka dziennikarki Karoliny Opolskiej pt. „Teoria spisku, czyli prawdziwa historia świata”. 3 listopada Artur Wójcik, historyk i autor bloga Sigillum Authenticum, zwraca się publicznie do autorki na platformie X: „Szanowna Pani Redaktor, dlaczego w wydaniu papierowym książki pojawiają się w przypisach odniesienia do pozycji, które nie istnieją? Nie sądzę, aby była to celowa prowokacja, ponieważ część z nich faktycznie istnieje, jednak inne niestety nie”.

– Słuchałem nieraz podcastu pani Opolskiej i będąc w księgarni, zupełnie przez przypadek zauważyłem jej książkę. Postanowiłem, że kupię ją do archiwum, bo zbieram wszystko, co pojawi się o teoriach spiskowych. Moją uwagę zwrócił rozdział o Wielkiej Lechii, o której akurat dużo pisałem, jest to jedna z najlepiej opracowanych teorii spiskowych. Dlatego zdziwiło mnie, że autorka właściwie nie podaje żadnych szczegółowych danych. Z ciekawości zacząłem sprawdzać przypisy. Nie kojarzyłem wymienionych tam publikacji. Z racji moich zainteresowań chciałem się z nimi zapoznać, wpisałem je do katalogu bibliotecznego i nic takiego nie znalazłem. Spytałem znajomych historyków, czy znają takie książki, i też nie znali – opowiada Wójcik.

W pierwszej chwili Wójcik pomyślał, że ma do czynienia z prowokacją dziennikarską, mającą na celu sprawdzenie, czy czytelnicy zdemaskują nieprawdę. – Ale w kolejnych przypisach też pojawiły się nieścisłości. Skala błędów była tak duża, że odrzuciłem teorię o prowokacji i postanowiłem zadać publicznie pytanie, dlaczego autorka wymyśliła książki – wspomina Wójcik.

Wpis wywołał burzę. Pojawiły się sugestie, że cała książka została stworzona przez AI, która ma skłonność do wymyślania nieistniejących źródeł. Jak opowiada Wójcik, ostatecznie otrzymał od dziennikarki prywatną wiadomość, że to wina wydawnictwa i jeśli będzie taka potrzeba, to wydawnictwo wyda oświadczenie.

W kolejnym wpisie, z 5 listopada, Wójcik wymienił błędne przypisy i wyjaśnił, co w nich nie pasuje. „Stanisław Mikołajczyk, Historia Polski, PWN, Warszawa 1989, s. 55–59 – taka książka nie istnieje, nie figuruje w żadnym katalogu bibliotecznym. • Witold Kula, Historia cywilizacji słowiańskiej, PWN, Warszawa 1984, s. 89–95 – również nie istnieje. • Gerard Labuda, Chrystianizacja Polski, Wydawnictwo Poznańskie, Poznań 1999, s. 17–20 – ta pozycja także nigdy nie została wydana. Edycja Roczników Jana Długosza też jest pomylona” – napisał. Wpis zakończył zdaniem: „używajmy AI, ale mądrze”.

– Nie spodziewałem się oddźwięku, postanowiłem jednak poinformować czytelników, żeby uważali na tę książkę, bo są wątpliwości, w jaki sposób powstawała – mówi.

Kilka godzin później głos na swoim facebookowym profilu zabrała Opolska, która wyjaśniła, że „doszło do pewnego nieporozumienia, które obecnie wyjaśnia wydawnictwo”, a przypisy nie są tymi, które znalazły się w jej „zautoryzowanej wersji”.

„Stanowczo odrzucam wszelkie insynuacje, jakoby książka powstawała przy pomocy sztucznej inteligencji. Nie tylko nie miało to miejsca i szczerze mówiąc, nie wyobrażam sobie, by było to w ogóle możliwe” – napisała i zapowiedziała oficjalne oświadczenie wydawnictwa.

Jeszcze tego samego dnia Harde, „w związku z pojawiającymi się zarzutami dotyczącymi rzetelności książki Opolskiej”, oświadczyło, że „na żadnym etapie książka nie była pisana ani współtworzona przez narzędzia AI”. Dalej wyjaśniło, że trzy nieprawidłowe przypisy zostały opublikowane „w wyniku błędu technicznego”, i podało właściwe źródła. Wydawnictwo przeprosiło też czytelników za błędne opublikowanie przypisów i zapewniło: „Po konsultacjach i wyjaśnieniach Autorki nie mamy zastrzeżeń do jej pracy. Jej książka jest bardzo dobrze udokumentowana źródłami i opisując tak trudną materię, Karolina Opolska wykazała się wyjątkową rzetelnością”.

Na tym jednak się nie skończyło, bo 7 listopada portal Demagog opublikował artykuł, w którym prześledzono 227 pozycji podanych jako przypisy dodatkowe w „Teorii spisku...” i autorki znalazły wśród nich „wiele błędów, niejasności i kolejne pozycje, które nie zostały nigdy wydane”, jak np. „Atlantyda zlokalizowana” Andrew Collinsa czy „Platon”

K.A. Kumanieckiego. W innych błędnie wskazano wydawnictwa czy daty wydania książek.

BŁĄD TECHNICZNY, CZYLI JAKI

Największą dyskusję w mediach społecznościowych wywołało oświadczenie Wydawnictwa Harde, a konkretnie fragment o błędzie technicznym. Na czym miałby on polegać? Spytałam o to wydawnictwo, ale nie odpowiedziało. – Pierwszy raz spotkałbym się z sytuacją, że wydawnictwo samo zmienia, podmienia czy nadaje przypisy, które nie istnieją. I to w takiej liczbie. To jest nieprawdopodobne – stwierdza Wójcik. Według niego innej możliwości niż skorzystanie z AI nie ma.

Zdaniem prof. Doroty Filar, językoznawczyni z Uniwersytetu Marii Curie-Skłodowskiej w Lublinie, oświadczenie, w którym otwarcie sformułowane jest przyznanie się do intencjonalnego, niezweryfikowanego użycia sztucznej inteligencji, byłoby zarazem przyznaniem się do popełnienia merytorycznego błędu, zaniedbania. – „Błąd techniczny” zakłada natomiast nieintencjonalne działanie, które jest poza kontrolą, a wtedy jest to zupełnie inny rodzaj odpowiedzialności. To tak, jakby kierowca prowadził auto, nie wiedząc, że wystąpiła usterka techniczna – porównuje prof. Filar. – Inaczej oceniamy tego, kto świadomie wykonuje nieodpowiedzialne czy szkodliwe działania – dodaje.

Sama, publikując jedną z książek, zauważyła błąd techniczny. Czytając egzemplarz próbny, czyli już po redakcji i korekcie, zorientowała się, że przy składzie została przestawiona kolejność rozdziałów. Przed ostatecznym drukiem udało się to poprawić. – Innym razem zamiast „dedykuję” wydrukowano „dedukuję”. To zmienia sens, ale to wciąż błąd techniczny – mówi. Skrzyżowanie w przypisie dwóch tytułów książek teoretycznie też można by według niej zaliczyć do tego rodzaju błędów. – Mogło się też coś niechcący przenieść w tekście. Tyle że to rzadko spotykana sytuacja, która ewentualnie mogłaby się zdarzyć raz, a nie wielokrotnie w jednej publikacji – zaznacza.

Profesor Filar dzieli się swoimi doświadczeniami z AI. Tworząc bibliografię do jednego z artykułów, chciała sprawdzić działanie AI i poprosiła sztuczną inteligencję o podanie literatury na temat jednego ze współczesnych zagadnień językoznawczych. AI wskazała dziesięć pozycji, z czego 40 proc. nie istniało albo zawierało pomyłki. – Najśmieszniejszy był punkt, w którym jako autora współczesnego opracowania wskazano mi Jana Kochanowskiego. W innym AI podała nazwisko autorki, która – jak wynikało z mojej wiedzy – rzeczywiście mogła pisać o danym zagadnieniu, ale akurat wskazanej przez AI książki nie napisała – opowiada prof. Filar.

Redaktorka z 30-letnim stażem, współpracująca z kilkoma znanymi wydawnictwami w Polsce, która prosi o anonimowość, miała podobne przypadki, i to całkiem niedawno, gdy redagowała książkę quasisocjologiczną. Autor powoływał się w niej na opinię innego naukowca. Redaktorka próbowała zweryfikować tytuł, autora, cytat. Zdziwiła się, bo internet takiej osoby nie znał. – Oczywiście mogła być to mało znana osoba, nieobecna w sieci. Okazało się jednak, że istnieje historyk o takim nazwisku, ale ma inaczej na imię, a jego rzekoma książka z przypisu nie istnieje. Natomiast cytaty były tak wyrafinowane, że nie podejrzewałam wtedy jeszcze działania AI. Zwłaszcza że autor zawsze był trochę bałaganiarski, poza tym nie chciało mi się wierzyć, że można w takiej książce powoływać się na ekspertów, którzy nie istnieją – mówi. Dopiero po dziesiątym takim cytacie zapytała, o co chodzi, i autor przyznał, że posiłkował się sztuczną inteligencją.

– Zresztą trudno uwierzyć, że w książce „Teoria spisku…” nie była używana sztuczna inteligencja, bo nawet jeden z linków w przypisach zawiera jasną informację, że pochodzi z ChatGPT – stwierdza Wójcik. Demagog również wskazał ten link w swoim artykule.

WIARYGODNOŚĆ A AI

Jak tłumaczy dr Marcin Wilkowski z Uniwersytetu Warszawskiego, specjalista od humanistyki cyfrowej, autor projektu Humanistyka.dev, czasem do adresów URL, którymi dzielimy się w sieci, automatycznie dodawane są metadane, czyli parametry Urchin Tracking Module (UTM), które informują m.in., z jakiej platformy lub narzędzia ktoś wszedł na daną stronę i skąd wziął się dany link. – W przypisach książki pani Opolskiej były referencje do czatu GPT, więc jest to dosyć wyraźna sugestia, że te odnośniki do określonych, wykorzystanych przez nią opracowań były automatycznie proponowane przez czat – mówi i dodaje: – Co nie jest zabronione.

I tu zaczyna się kolejna dyskusja: czy tekst napisany z wykorzystaniem sztucznej inteligencji może być rzetelny i wiarygodny. Odpowiedzi ekspertów są zgodne i brzmią zazwyczaj: „Tak, ale”. – Bo to człowiek musi zweryfikować to, co wygenerowała sztuczna inteligencja, i zachować trzeźwość umysłu. Jeżeli tylko przekleimy wyniki odpowiedzi na nasz prompt, to z pewnością narazimy się na błędy, halucynacje, podanie nieprawdziwych źródeł, a wtedy o żadnej wiarygodności nie ma mowy – tłumaczy prof. UŁ Artur Modliński, Kierownik Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją. Za przykład podaje głośną sprawę z Portugalii sprzed kilku miesięcy, gdzie sędzia wydał wyrok wygenerowany przez AI i powołał się na przepisy, które nie istnieją. Powódka zażądała unieważnienia wyroku.

Profesor Przemysław Czapliński, historyk literatury z Uniwersytetu im. Adama Mickiewicza, przypomina, że mamy już na rynku pierwszy tomik poetycki „Kubek na tsunami” Justyny Bargielskiej, który powstał w ramach rozmów z czatem – wiersze nie zostały napisane przez AI, tylko powstały w wyniku wielomiesięcznych dialogów z nią. – I to jest indywidualna, oryginalna, autorska książka poetycka, nie ma się co obrażać. W miarę rozwoju sztucznej inteligencji z pewnością zacznie się dziać to, co stało się np. w filmie – środki techniczne, takie jak wolne czy szybsze tempo, miksowanie obrazów albo dzielenie ekranu, zaczęły współtworzyć dzieło. Medium podpowiada twórcy rozwiązania możliwe tylko dzięki nowym narzędziom – mówi. Na razie jednak, jak tłumaczy, dominuje wykorzystywanie AI do pomocy przy wykonywaniu starych zadań. I tak na przykład w nauce już około 20 proc. tekstów powstaje we współpracy ze sztuczną inteligencją.

Marcin Wilkowski z Uniwersytetu Warszawskiego przyznaje nawet, że bierze udział w pracach uczelnianej komisji, która zastanawia się, jakie kompetencje powinni mieć dydaktycy do korzystania ze sztucznej inteligencji na zajęciach oraz do badania tego wykorzystania przez studentów. Po aferze wokół książki „Teoria spisku...” za pomocą szybkiej kwerendy w Google Scholar znalazł kilkadziesiąt publikacji polskich badaczy z podobnymi podejrzanymi przypisami i śladami podobnego wykorzystania tego narzędzia.

Medioznawca z Uniwersytetu Warszawskiego dr hab. Jacek Wasilewski rozumie, skąd duże wzburzenie akurat wokół książki Karoliny Opolskiej. Jak tłumaczy, w ideę pracy dziennikarza, mimo że dziennikarstwo nie jest ostatnio specjalnie poważane, wpisany jest silny komponent zaufania publicznego. – Dziennikarz jest jak lekarz, który zaleca pacjentowi lekarstwo. Wierzymy, że wie, co robi i nie jest szarlatanem – porównuje Wasilewski. – Gdyby to był bloger, sytuacja byłaby inna, ale Karolina Opolska jest dziennikarką, więc automatycznie jako autorka jest poddana większej kontroli społecznej.

Według Wasilewskiego nie ma znaczenia, że jej książka nie jest pracą naukową. – Jeżeli podaję bibliografię, to znaczy, że mam do czynienia z jakimiś ustaleniami. Jeśli te są niesprawdzone, niezweryfikowane, to nadwątla to tę podstawową umowę o prawdzie. Gdybyśmy poprosili lekarza, żeby nas zbadał, a on by wyszedł i zostawił nas z AI, byłoby nam trudno uwierzyć w jego chęć pomocy i odpowiedzialność – porównuje dr hab. Jacek Wasilewski.

TWORZONY CZY WSPÓŁTWORZONY

Do pytań o rzetelność i wiarygodność tekstu trzeba dodać kolejne: co dokładnie znaczy utwór tworzony, współtworzony przez AI lub powstały z wykorzystaniem AI? – Przez wykorzystanie możemy np. rozumieć zbieranie danych, później weryfikowanych przez autora, wstępną ich obróbkę, poddanie ich statystycznej analizie. Uważam za błogosławieństwo, że możemy z takiego narzędzia korzystać, a nie latami, jak dawniej, wertować tomy literatury. Ale na żadnym etapie nie zgadzam się na zdjęcie odpowiedzialności za tekst i wyniki badań z autora – mówi prof. Filar. Opowiada, że nie zdarzyło jej się dostać do recenzji artykułu napisanego przez AI, chociaż nie twierdzi, że autorzy nie szukają tam danych czy bibliografii, bo badacze zawsze korzystali z różnych źródeł, w tym z korpusów danych i wyszukiwarek cyfrowych.

– Ale już samo pisanie i formułowanie wniosków badawczych to inny proces – podkreśla prof. Filar.

Dr hab. Artur Modliński wykorzystuje AI do tego, żeby skonfrontować swoje myśli albo poprawić język, gdy pisze po angielsku i chce użyć bardziej formalnej składni. – Ale własność intelektualna tekstu jest moja – zaznacza. O zasadach i zakresie korzystania z AI rozmawia zresztą też ze swoimi studentami, bo nie raz dostawał prace ewidentnie wygenerowane przez sztuczną inteligencję.

Jeśli zauważy, że pierwszy rozdział pracy dyplomowej powstał w taki sposób, student musi zmienić temat i zacząć pisać od początku. – Staramy się sobie ustalić, co jest etyczne, a na pewno nie jest etyczne „kopiuj wklej”, generowanie treści od zera i nieweryfikowanie źródeł z AI – to też grzech ciężki. Ale już poprawki wykonane przez AI można uznać za etyczne.

Dr Modliński śmieje się, że może ustawodawca zdąży przed jego emeryturą z kodyfikacją zasad. Ma do niej jeszcze 30 lat. – Im więcej o tym rozmawiamy, tym bardziej ten proces przyspieszamy – dodaje.

Zdaniem dra Marcina Wilkowskiego z Uniwersytetu Warszawskiego korzystanie z linków, które proponuje czat, a nawet z samego czatu, nie musi być problemem, ale zależy to od tego, jaki tekst piszemy i o czym. Podczas niedawnego spotkania usłyszał od profesora matematyki, że ten nie widzi problemu w tym, że student wygeneruje tekst zaliczeniowy w czacie, bo główną wartością artykułów matematycznych są wzory lub praca z danymi, a nie narracja. W humanistyce, ale też na komercyjnym rynku literackim, gdzie pisanie autorskich tekstów jest rzeczą fundamentalną, wątpliwości jest już więcej. – Czym innym jest proofreading, który zakłada gotowy autorski tekst, przygotowany zgodnie ze sztuką. Tekst do publikacji w zagranicznym czasopiśmie wymaga dobrego tłumaczenia na angielski. Można go sobie przetłumaczyć ręcznie i ewentualnie poprosić o pomoc AI w poprawie stylu naukowego. Czym innym jest jednak to, co zrobiła – jak się wydaje – Karolina Opolska, czyli przerzucenie na czat wysiłku wyszukiwania źródeł do swojego opracowania – mówi Wilkowski.

Jednocześnie podkreśla, że nie uważa za nic złego pytania ChatGPT na początku researchu o literaturę. Ale potem autorka czy autor powinien wybrać kilka pozycji, przeczytać je i zanalizować oraz szukać dalej, już bardziej świadomie. – Można poprosić czat: Otwórz mi wszystkie strony na ten temat i sprawdź, czy te rzeczy są prawdziwe. Głównym problemem, z jakim się tu spotkaliśmy, jest błąd zaniechania – dodaje medioznawca z UW. – Problemem jest też zatajenie informacji przed czytelnikami, że korzystano z AI – mówi dr hab. Jacek Wasilewski.

***

To tylko fragment tekstu Aleksandry Pucułek. Pochodzi on z najnowszego numeru „Press”. Przeczytaj go w całości w magazynie.

„Press” do nabycia w dobrych salonach prasowych lub online (wydanie drukowane lub e-wydanie) na e-sklep.press.pl.

Czytaj też: Nowy „Press”: Michał Przedlacki, afera z książką Opolskiej i kto zarabia na AI

Press

Aleksandra Pucułek

* Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter
Pressletter
Ta strona korzysta z plików cookies. Korzystając ze strony bez zmiany ustawień dotyczących cookies w przeglądarce zgadzasz się na zapisywanie ich w pamięci urządzenia. Dodatkowo, korzystając ze strony, akceptujesz klauzulę przetwarzania danych osobowych. Więcej informacji w Regulaminie.