Technika błędu. Afera z książką Karoliny Opolskiej rozpaliła debatę o granicach użycia AI
„Ogromnie mi przykro, że w książce są błędy. Natomiast nie chcę się zgodzić z tym, żeby ten błąd miał mnie całkowicie skreślać, a dyskusja deprecjonuje wszystko, co przez ostatnie 20 lat zrobiłam” – stwierdza Karolina Opolska, obecnie dziennikarka TVP i zastępczyni Jacka Żakowskiego na Uniwersytecie Civitas (screen: YouTube/TVP Info)
W ostatni czwartek na Press.pl poinformowaliśmy, że książka „Teoria spisku, czyli prawdziwa historia świata” Karoliny Opolskiej zostanie wycofana ze sprzedaży, przez co nie będzie zapowiadanej do niej wcześniej erraty. To decyzja Wydawnictwa Harde i autorki. Teraz przypominamy nasz tekst z magazynu „Press” o całej aferze. Już wtedy książka Opolskiej wywołała żywą dyskusję o granicach użycia AI w dziennikarstwie.
***
Ten tekst Aleksandry Pucułek pochodzi z magazynu „Press” – wydanie nr 01-02/2026. Teraz udostępniliśmy go do przeczytania w całości dla najaktywniejszych Czytelników.
***
Nakładem Wydawnictwa Harde w październiku 2025 roku ukazała się książka dziennikarki Karoliny Opolskiej pt. „Teoria spisku, czyli prawdziwa historia świata”. 3 listopada Artur Wójcik, historyk i autor bloga Sigillum Authenticum, zwraca się publicznie do autorki na platformie X: „Szanowna Pani Redaktor, dlaczego w wydaniu papierowym książki pojawiają się w przypisach odniesienia do pozycji, które nie istnieją? Nie sądzę, aby była to celowa prowokacja, ponieważ część z nich faktycznie istnieje, jednak inne niestety nie”.
Czytaj też: Nie będzie erraty do książki Karoliny Opolskiej, bo zostanie wycofana ze sprzedaży
– Słuchałem nieraz podcastu pani Opolskiej i będąc w księgarni, zupełnie przez przypadek zauważyłem jej książkę. Postanowiłem, że kupię ją do archiwum, bo zbieram wszystko, co pojawi się o teoriach spiskowych. Moją uwagę zwrócił rozdział o Wielkiej Lechii, o której akurat dużo pisałem, jest to jedna z najlepiej opracowanych teorii spiskowych. Dlatego zdziwiło mnie, że autorka właściwie nie podaje żadnych szczegółowych danych. Z ciekawości zacząłem sprawdzać przypisy. Nie kojarzyłem wymienionych tam publikacji. Z racji moich zainteresowań chciałem się z nimi zapoznać, wpisałem je do katalogu bibliotecznego i nic takiego nie znalazłem. Spytałem znajomych historyków, czy znają takie książki, i też nie znali – opowiada Wójcik.
W pierwszej chwili Wójcik pomyślał, że ma do czynienia z prowokacją dziennikarską, mającą na celu sprawdzenie, czy czytelnicy zdemaskują nieprawdę. – Ale w kolejnych przypisach też pojawiły się nieścisłości. Skala błędów była tak duża, że odrzuciłem teorię o prowokacji i postanowiłem zadać publicznie pytanie, dlaczego autorka wymyśliła książki – wspomina Wójcik.
Wpis wywołał burzę. Pojawiły się sugestie, że cała książka została stworzona przez AI, która ma skłonność do wymyślania nieistniejących źródeł. Jak opowiada Wójcik, ostatecznie otrzymał od dziennikarki prywatną wiadomość, że to wina wydawnictwa i jeśli będzie taka potrzeba, to wydawnictwo wyda oświadczenie.
W kolejnym wpisie, z 5 listopada, Wójcik wymienił błędne przypisy i wyjaśnił, co w nich nie pasuje. „Stanisław Mikołajczyk, Historia Polski, PWN, Warszawa 1989, s. 55–59 – taka książka nie istnieje, nie figuruje w żadnym katalogu bibliotecznym. • Witold Kula, Historia cywilizacji słowiańskiej, PWN, Warszawa 1984, s. 89–95 – również nie istnieje. • Gerard Labuda, Chrystianizacja Polski, Wydawnictwo Poznańskie, Poznań 1999, s. 17–20 – ta pozycja także nigdy nie została wydana. Edycja Roczników Jana Długosza też jest pomylona” – napisał. Wpis zakończył zdaniem: „używajmy AI, ale mądrze”.
– Nie spodziewałem się oddźwięku, postanowiłem jednak poinformować czytelników, żeby uważali na tę książkę, bo są wątpliwości, w jaki sposób powstawała – mówi.
Kilka godzin później głos na swoim facebookowym profilu zabrała Opolska, która wyjaśniła, że „doszło do pewnego nieporozumienia, które obecnie wyjaśnia wydawnictwo”, a przypisy nie są tymi, które znalazły się w jej „zautoryzowanej wersji”.
„Stanowczo odrzucam wszelkie insynuacje, jakoby książka powstawała przy pomocy sztucznej inteligencji. Nie tylko nie miało to miejsca i szczerze mówiąc, nie wyobrażam sobie, by było to w ogóle możliwe” – napisała i zapowiedziała oficjalne oświadczenie wydawnictwa.
Jeszcze tego samego dnia Harde, „w związku z pojawiającymi się zarzutami dotyczącymi rzetelności książki Opolskiej”, oświadczyło, że „na żadnym etapie książka nie była pisana ani współtworzona przez narzędzia AI”. Dalej wyjaśniło, że trzy nieprawidłowe przypisy zostały opublikowane „w wyniku błędu technicznego”, i podało właściwe źródła. Wydawnictwo przeprosiło też czytelników za błędne opublikowanie przypisów i zapewniło: „Po konsultacjach i wyjaśnieniach Autorki nie mamy zastrzeżeń do jej pracy. Jej książka jest bardzo dobrze udokumentowana źródłami i opisując tak trudną materię, Karolina Opolska wykazała się wyjątkową rzetelnością”.
Na tym jednak się nie skończyło, bo 7 listopada portal Demagog opublikował artykuł, w którym prześledzono 227 pozycji podanych jako przypisy dodatkowe w „Teorii spisku...” i autorki znalazły wśród nich „wiele błędów, niejasności i kolejne pozycje, które nie zostały nigdy wydane”, jak np. „Atlantyda zlokalizowana” Andrew Collinsa czy „Platon”
K.A. Kumanieckiego. W innych błędnie wskazano wydawnictwa czy daty wydania książek.
BŁĄD TECHNICZNY, CZYLI JAKI
Największą dyskusję w mediach społecznościowych wywołało oświadczenie Wydawnictwa Harde, a konkretnie fragment o błędzie technicznym. Na czym miałby on polegać? Spytałam o to wydawnictwo, ale nie odpowiedziało. – Pierwszy raz spotkałbym się z sytuacją, że wydawnictwo samo zmienia, podmienia czy nadaje przypisy, które nie istnieją. I to w takiej liczbie. To jest nieprawdopodobne – stwierdza Wójcik. Według niego innej możliwości niż skorzystanie z AI nie ma.
Zdaniem prof. Doroty Filar, językoznawczyni z Uniwersytetu Marii Curie-Skłodowskiej w Lublinie, oświadczenie, w którym otwarcie sformułowane jest przyznanie się do intencjonalnego, niezweryfikowanego użycia sztucznej inteligencji, byłoby zarazem przyznaniem się do popełnienia merytorycznego błędu, zaniedbania. – „Błąd techniczny” zakłada natomiast nieintencjonalne działanie, które jest poza kontrolą, a wtedy jest to zupełnie inny rodzaj odpowiedzialności. To tak, jakby kierowca prowadził auto, nie wiedząc, że wystąpiła usterka techniczna – porównuje prof. Filar. – Inaczej oceniamy tego, kto świadomie wykonuje nieodpowiedzialne czy szkodliwe działania – dodaje.
Sama, publikując jedną z książek, zauważyła błąd techniczny. Czytając egzemplarz próbny, czyli już po redakcji i korekcie, zorientowała się, że przy składzie została przestawiona kolejność rozdziałów. Przed ostatecznym drukiem udało się to poprawić. – Innym razem zamiast „dedykuję” wydrukowano „dedukuję”. To zmienia sens, ale to wciąż błąd techniczny – mówi. Skrzyżowanie w przypisie dwóch tytułów książek teoretycznie też można by według niej zaliczyć do tego rodzaju błędów. – Mogło się też coś niechcący przenieść w tekście. Tyle że to rzadko spotykana sytuacja, która ewentualnie mogłaby się zdarzyć raz, a nie wielokrotnie w jednej publikacji – zaznacza.
Profesor Filar dzieli się swoimi doświadczeniami z AI. Tworząc bibliografię do jednego z artykułów, chciała sprawdzić działanie AI i poprosiła sztuczną inteligencję o podanie literatury na temat jednego ze współczesnych zagadnień językoznawczych. AI wskazała dziesięć pozycji, z czego 40 proc. nie istniało albo zawierało pomyłki. – Najśmieszniejszy był punkt, w którym jako autora współczesnego opracowania wskazano mi Jana Kochanowskiego. W innym AI podała nazwisko autorki, która – jak wynikało z mojej wiedzy – rzeczywiście mogła pisać o danym zagadnieniu, ale akurat wskazanej przez AI książki nie napisała – opowiada prof. Filar.
Redaktorka z 30-letnim stażem, współpracująca z kilkoma znanymi wydawnictwami w Polsce, która prosi o anonimowość, miała podobne przypadki, i to całkiem niedawno, gdy redagowała książkę quasisocjologiczną. Autor powoływał się w niej na opinię innego naukowca. Redaktorka próbowała zweryfikować tytuł, autora, cytat. Zdziwiła się, bo internet takiej osoby nie znał. – Oczywiście mogła być to mało znana osoba, nieobecna w sieci. Okazało się jednak, że istnieje historyk o takim nazwisku, ale ma inaczej na imię, a jego rzekoma książka z przypisu nie istnieje. Natomiast cytaty były tak wyrafinowane, że nie podejrzewałam wtedy jeszcze działania AI. Zwłaszcza że autor zawsze był trochę bałaganiarski, poza tym nie chciało mi się wierzyć, że można w takiej książce powoływać się na ekspertów, którzy nie istnieją – mówi. Dopiero po dziesiątym takim cytacie zapytała, o co chodzi, i autor przyznał, że posiłkował się sztuczną inteligencją.
– Zresztą trudno uwierzyć, że w książce „Teoria spisku…” nie była używana sztuczna inteligencja, bo nawet jeden z linków w przypisach zawiera jasną informację, że pochodzi z ChatGPT – stwierdza Wójcik. Demagog również wskazał ten link w swoim artykule.
WIARYGODNOŚĆ A AI
Jak tłumaczy dr Marcin Wilkowski z Uniwersytetu Warszawskiego, specjalista od humanistyki cyfrowej, autor projektu Humanistyka.dev, czasem do adresów URL, którymi dzielimy się w sieci, automatycznie dodawane są metadane, czyli parametry Urchin Tracking Module (UTM), które informują m.in., z jakiej platformy lub narzędzia ktoś wszedł na daną stronę i skąd wziął się dany link. – W przypisach książki pani Opolskiej były referencje do czatu GPT, więc jest to dosyć wyraźna sugestia, że te odnośniki do określonych, wykorzystanych przez nią opracowań były automatycznie proponowane przez czat – mówi i dodaje: – Co nie jest zabronione.
I tu zaczyna się kolejna dyskusja: czy tekst napisany z wykorzystaniem sztucznej inteligencji może być rzetelny i wiarygodny. Odpowiedzi ekspertów są zgodne i brzmią zazwyczaj: „Tak, ale”. – Bo to człowiek musi zweryfikować to, co wygenerowała sztuczna inteligencja, i zachować trzeźwość umysłu. Jeżeli tylko przekleimy wyniki odpowiedzi na nasz prompt, to z pewnością narazimy się na błędy, halucynacje, podanie nieprawdziwych źródeł, a wtedy o żadnej wiarygodności nie ma mowy – tłumaczy prof. UŁ Artur Modliński, Kierownik Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją. Za przykład podaje głośną sprawę z Portugalii sprzed kilku miesięcy, gdzie sędzia wydał wyrok wygenerowany przez AI i powołał się na przepisy, które nie istnieją. Powódka zażądała unieważnienia wyroku.
Profesor Przemysław Czapliński, historyk literatury z Uniwersytetu im. Adama Mickiewicza, przypomina, że mamy już na rynku pierwszy tomik poetycki „Kubek na tsunami” Justyny Bargielskiej, który powstał w ramach rozmów z czatem – wiersze nie zostały napisane przez AI, tylko powstały w wyniku wielomiesięcznych dialogów z nią. – I to jest indywidualna, oryginalna, autorska książka poetycka, nie ma się co obrażać. W miarę rozwoju sztucznej inteligencji z pewnością zacznie się dziać to, co stało się np. w filmie – środki techniczne, takie jak wolne czy szybsze tempo, miksowanie obrazów albo dzielenie ekranu, zaczęły współtworzyć dzieło. Medium podpowiada twórcy rozwiązania możliwe tylko dzięki nowym narzędziom – mówi. Na razie jednak, jak tłumaczy, dominuje wykorzystywanie AI do pomocy przy wykonywaniu starych zadań. I tak na przykład w nauce już około 20 proc. tekstów powstaje we współpracy ze sztuczną inteligencją.
Marcin Wilkowski z Uniwersytetu Warszawskiego przyznaje nawet, że bierze udział w pracach uczelnianej komisji, która zastanawia się, jakie kompetencje powinni mieć dydaktycy do korzystania ze sztucznej inteligencji na zajęciach oraz do badania tego wykorzystania przez studentów. Po aferze wokół książki „Teoria spisku...” za pomocą szybkiej kwerendy w Google Scholar znalazł kilkadziesiąt publikacji polskich badaczy z podobnymi podejrzanymi przypisami i śladami podobnego wykorzystania tego narzędzia.
Medioznawca z Uniwersytetu Warszawskiego dr hab. Jacek Wasilewski rozumie, skąd duże wzburzenie akurat wokół książki Karoliny Opolskiej. Jak tłumaczy, w ideę pracy dziennikarza, mimo że dziennikarstwo nie jest ostatnio specjalnie poważane, wpisany jest silny komponent zaufania publicznego. – Dziennikarz jest jak lekarz, który zaleca pacjentowi lekarstwo. Wierzymy, że wie, co robi i nie jest szarlatanem – porównuje Wasilewski. – Gdyby to był bloger, sytuacja byłaby inna, ale Karolina Opolska jest dziennikarką, więc automatycznie jako autorka jest poddana większej kontroli społecznej.
Według Wasilewskiego nie ma znaczenia, że jej książka nie jest pracą naukową. – Jeżeli podaję bibliografię, to znaczy, że mam do czynienia z jakimiś ustaleniami. Jeśli te są niesprawdzone, niezweryfikowane, to nadwątla to tę podstawową umowę o prawdzie. Gdybyśmy poprosili lekarza, żeby nas zbadał, a on by wyszedł i zostawił nas z AI, byłoby nam trudno uwierzyć w jego chęć pomocy i odpowiedzialność – porównuje dr hab. Jacek Wasilewski.
TWORZONY CZY WSPÓŁTWORZONY
Do pytań o rzetelność i wiarygodność tekstu trzeba dodać kolejne: co dokładnie znaczy utwór tworzony, współtworzony przez AI lub powstały z wykorzystaniem AI? – Przez wykorzystanie możemy np. rozumieć zbieranie danych, później weryfikowanych przez autora, wstępną ich obróbkę, poddanie ich statystycznej analizie. Uważam za błogosławieństwo, że możemy z takiego narzędzia korzystać, a nie latami, jak dawniej, wertować tomy literatury. Ale na żadnym etapie nie zgadzam się na zdjęcie odpowiedzialności za tekst i wyniki badań z autora – mówi prof. Filar. Opowiada, że nie zdarzyło jej się dostać do recenzji artykułu napisanego przez AI, chociaż nie twierdzi, że autorzy nie szukają tam danych czy bibliografii, bo badacze zawsze korzystali z różnych źródeł, w tym z korpusów danych i wyszukiwarek cyfrowych.
– Ale już samo pisanie i formułowanie wniosków badawczych to inny proces – podkreśla prof. Filar.
Dr hab. Artur Modliński wykorzystuje AI do tego, żeby skonfrontować swoje myśli albo poprawić język, gdy pisze po angielsku i chce użyć bardziej formalnej składni. – Ale własność intelektualna tekstu jest moja – zaznacza. O zasadach i zakresie korzystania z AI rozmawia zresztą też ze swoimi studentami, bo nie raz dostawał prace ewidentnie wygenerowane przez sztuczną inteligencję.
Jeśli zauważy, że pierwszy rozdział pracy dyplomowej powstał w taki sposób, student musi zmienić temat i zacząć pisać od początku. – Staramy się sobie ustalić, co jest etyczne, a na pewno nie jest etyczne „kopiuj wklej”, generowanie treści od zera i nieweryfikowanie źródeł z AI – to też grzech ciężki. Ale już poprawki wykonane przez AI można uznać za etyczne.
Dr Modliński śmieje się, że może ustawodawca zdąży przed jego emeryturą z kodyfikacją zasad. Ma do niej jeszcze 30 lat. – Im więcej o tym rozmawiamy, tym bardziej ten proces przyspieszamy – dodaje.
Zdaniem dra Marcina Wilkowskiego z Uniwersytetu Warszawskiego korzystanie z linków, które proponuje czat, a nawet z samego czatu, nie musi być problemem, ale zależy to od tego, jaki tekst piszemy i o czym. Podczas niedawnego spotkania usłyszał od profesora matematyki, że ten nie widzi problemu w tym, że student wygeneruje tekst zaliczeniowy w czacie, bo główną wartością artykułów matematycznych są wzory lub praca z danymi, a nie narracja. W humanistyce, ale też na komercyjnym rynku literackim, gdzie pisanie autorskich tekstów jest rzeczą fundamentalną, wątpliwości jest już więcej. – Czym innym jest proofreading, który zakłada gotowy autorski tekst, przygotowany zgodnie ze sztuką. Tekst do publikacji w zagranicznym czasopiśmie wymaga dobrego tłumaczenia na angielski. Można go sobie przetłumaczyć ręcznie i ewentualnie poprosić o pomoc AI w poprawie stylu naukowego. Czym innym jest jednak to, co zrobiła – jak się wydaje – Karolina Opolska, czyli przerzucenie na czat wysiłku wyszukiwania źródeł do swojego opracowania – mówi Wilkowski.
Jednocześnie podkreśla, że nie uważa za nic złego pytania ChatGPT na początku researchu o literaturę. Ale potem autorka czy autor powinien wybrać kilka pozycji, przeczytać je i zanalizować oraz szukać dalej, już bardziej świadomie. – Można poprosić czat: Otwórz mi wszystkie strony na ten temat i sprawdź, czy te rzeczy są prawdziwe. Głównym problemem, z jakim się tu spotkaliśmy, jest błąd zaniechania – dodaje medioznawca z UW. – Problemem jest też zatajenie informacji przed czytelnikami, że korzystano z AI – mówi dr hab. Jacek Wasilewski.
Zwolennikiem polityki informowania czytelników o tym, że książka była współtworzona przez AI, jest też dr hab. Artur Modliński. – Wtedy możemy świadomie dokonać wyboru. Zwłaszcza że żyjemy w czasach dużej niepewności, dezinformacji. Może pojawić się nowy autor na rynku i nie będziemy wiedzieli, czy to faktycznie żywy człowiek – mówi.
– Zaczynamy mieć do czynienia z szarą strefą: czasem mam wrażenie, że w akademii czy w szkołach wszyscy udają, że sztuczna inteligencja nie istnieje albo się z niej nie korzysta w imię wyższych ideałów – podsumowuje Wilkowski, choć przypomina, że na rynku szkoleniowym proponowane są już oficjalne warsztaty z wykorzystywania AI w pracy naukowej czy szkolenia z pisania wniosków grantowych przez AI.
JAK DZIAŁA REDAKCJA
Jak powinna działać profesjonalna redakcja książkowa? Wyjaśnia prof. Przemysław Czapliński, historyk literatury z UAM, autor nagradzanych książek i juror nagrody Nike: – Moment przesłania artykułu bądź książki rozpoczyna bardzo intensywną komunikację. Redaktor sprawdza wszystko: czy tezy początkowe znajdują swoje potwierdzenie na końcu, czy wywód jest spójny, czy wnioski dobrze podsumowują całość. To są uwagi merytoryczne. Autor, gdy tekst do niego wraca, ustosunkowuje się do nich. Potem pojawia się korektor, który sprawdza wyłącznie poprawność językową, a więc składnię, frazeologię, interpunkcję itd.
Jak to wygląda z perspektywy redaktora? Doświadczona redaktorka, która chce pozostać anonimowa, stwierdza: – Nigdy nie wiem, jakimi źródłami autor się posiłkuje, skąd czerpie wiedzę, więc z złożenia sprawdzam wszystko. Ta praca zakłada określony stopień niewiary. Moje zaufanie do autora rośnie albo maleje wraz z kolejnymi stronami – opowiada.
Gdy dostaje książkę z fizyki, to sprawdza, czy dobrze są przeliczone jednostki, jeśli autor pisze o statku, który zszedł na daną głębokość, to sprawdza, czy dane są prawdziwe. Ponadto dba o logikę, spójność tekstu, poprawia język. Oczywiście weryfikuje też nazwiska, nazwy czasopism z przypisów. – Tego jestem nauczona – wyjaśnia.
Przeciętnie jeden tekst trafia do niej dwukrotnie przed dalszymi etapami pracy nad nim, chociaż np. ostatnio książka historyczna wracała pięć razy, bo autor był szczególnie dokładny, co jest niestety coraz rzadsze. – Zawsze piszę, że to, co sugeruję, nie jest wersją ostateczną tekstu, tylko propozycją i teraz od autora zależy, czy przyjmie zmiany, chce mieć książkę doskonałą, średnią, czy chce po prostu ją wydać – tłumaczy redaktorka.
Jeśli tekst albo jego fragmenty byłyby pisane przez AI, z pewnością by to wyczuła. Zresztą niedawno redagowała taką książkę. Najpierw zdziwiła ją konstrukcja zdań, chociaż autor nie był pisarzem, więc można było założyć, że nie ma warsztatu. – Ale są granice. Gdy ktoś nie stosuje kropek, wielkich liter, to mój poziom podejrzliwości wzrasta. Zresztą w pewnym momencie zauważyłam w tekście napis ChatGPT.
Profesor Przemysław Czapliński wyjaśnia: – Język AI jest potwornie gładki, banalny, stereotypowy. AI sadzi ogólniki niczym truskawki na rabatce. A ponadto ma złą interpunkcję, zwichnięte zdania, złą frazeologię. Każdy język jest do pewnego stopnia regularny, a do pewnego stopnia oparty na wyjątkach. Tam, gdzie reguły mają zastosowanie, AI napisze zdanie poprawnie, przy wyjątkach i idiomach często robi błędy.
Profesor stwierdza, że dotąd nie spotkał się z tekstem, którego autorstwa nie byłby w stanie odróżnić, chociaż AI każdego dnia poprawia swoje kompetencje. – Tam, gdzie w grę wchodzą ścisłe problemy matematyczne, fizyczne, chemiczne, AI nie popełni tylu błędów. Ale jeśli mówimy o kreatywności, inwencji, zdolności syntetyzowania wiedzy, to AI leje wodę i zmyśla, i to często w sposób niesłychanie bezczelny. Wymyśla tytuły książek i autorów, zmienia imiona postaci literackich, konfabuluje wydarzenia historyczne.
Jedyne dzieła AI, które profesor Czapliński uważa za wartościowe, to tłumaczenia tekstów. Sztuczna inteligencja robi to na średnim, a czasem nawet dobrym poziomie.
Dr hab. Artur Modliński śmieje się, że jest już w stanie rozpoznać nawet to, kto z jakiego narzędzia AI korzystał. Można już bowiem mówić o pewnej gramatyce czatowej. – To znaczy w zależności od tego, czy jest to czat GPT, czy Perplexity, czy Copilot, stylistyka formułowanych przez nie wypowiedzi będzie trochę się różniła – wyjaśnia.
Jak przypomina prof. Czapliński, AI nie może nam odpowiedzieć, że czegoś nie wie – tak jest zaprogramowana. – Japończycy na pytanie, jak dojść do hotelu, zaczynają odpowiadać, nawet jeśli nie znają drogi. Gotowi są raczej wprowadzić człowieka w błąd, niż przyznać się do niewiedzy, ponieważ w ich kulturze odpowiedź: „przepraszam, nie wiem”, jest niegrzeczna. Tak też zostały skonstruowane programy sztucznej inteligencji i stąd się biorą zmyślone fakty, daty i nazwiska. Dlatego sztucznej inteligencji nie można ufać – mówi prof. Czapliński.
REDAKTOR Z PRAWDZIWEGO ZDARZENIA
Marek Bieńczyk, pisarz i laureat m.in. Nagrody Literackiej Nike, stwierdza: – Miałem kilku świetnych redaktorów, którym wiele zawdzięczam, ale to nie zdarzyło się przy wszystkich książkach. Miałem też słabych redaktorów, którzy ograniczali się jedynie do redakcji językowej, czyli w zasadzie korekty.
Dlatego rozmawiając z nowym wydawnictwem o książce, zwłaszcza takiej, która miała być przekładem, zawsze mówił: „Poproszę najstarszą redaktorkę”. – Były to osoby najlepiej przygotowane do pracy, prawie wszystko potrafiły wychwycić.
Od redaktora Marek Bieńczyk oczekiwał znajomości merytoryki, ale też wyczucia i dobrego smaku literackiego. A z tym, jak mówi, bywa różnie. – Nieraz słyszę od znajomych pisarzy: „Żebym dostał tego redaktora, to byłoby cudownie”. Na rynku funkcjonują nazwiska osób, z którymi każdy chciałby współpracować, ale jest ich niewiele – mówi.
Dobrej oceny nie wystawiłaby większości kolegów po fachu redaktorka, z którą rozmawiałam. Zgadza się z tym, że bardzo dużo zależy od doświadczenia, liczby zredagowanych książek oraz słuchu literackiego. – Ostatnio doszłam do wniosku, że ludziom wystarcza cierpliwości na jakieś 70 stron – mówi. A zauważyła to, robiąc korektę kilku już zredagowanych książek. – To się czuje, czy ktoś czegoś nie wychwycił, czy po prostu przestał pracować. Nie wiem, z czego to wynika. Zdarzało mi się robić książki pod presją czasu, ale gdy wydawnictwo naciskało, to przesyłałam jeden zredagowany fragment, by pokazać, ile pracy musiałam wykonać, ile poprawek nanieść – mówi i dodaje: – Sztuczna inteligencja nie zmieniła sposobu mojej pracy, ona mi tej pracy trochę dodała, bo podejrzliwość wzrasta.
Zdaniem Marka Bieńczyka dobry redaktor wychwyci prawie wszystkie błędy, ale gdy mu się nie uda, to poprawia podczas kolejnego etapu. – W moim przypadku praca trwa do ostatniej chwili, dopiero może po trzecim czytaniu tekst jest solidnie wyczyszczony – stwierdza. I przypomina, że zawsze powinno się otrzymać wydruk PDF tuż przed drukiem. Bo nieraz jeszcze na tym etapie zdarzyło mu się wychwycić jakiś drobiazg. – Jeśli mimo to pomylę jakąś nazwę i redaktor tego nie wychwyci, bo mi nazbyt ufa, to wprawdzie redaktor będzie czuł się winny, ale wina będzie moja jako autora – podsumowuje.
Redaktorce, z którą rozmawiałam, przypomniała się sytuacja, gdy jeden z jej autorów zażyczył sobie, by nazwę Akerman zapisać przez dwa k. Przejrzała kilka opracowań i słowników, ale nigdzie nie natrafiła na taką formę. Jednak autor się uparł. – Odpuściłam, chociaż wiedziałam, że błąd pójdzie na moje konto – wspomina.
Zdaniem prof. Czaplińskiego błąd w przypisie obciąża autora i redaktora. – Redaktor zaufał autorowi, zwłaszcza gdy przypis wyglądał na regularny. Zadziałała zasada autorytetu – komentuje możliwe przyczyny błędów w książce Karoliny Opolskiej.
Chociaż brakuje prawnych regulacji, to za podstawę prof. Dorota Filar uznaje to, że AI nie jest ani podmiotem prawnym, ani podmiotem naukowym. – To wydawca i autor ponoszą odpowiedzialność za publikowane treści.
Doświadczona redaktorka stwierdza: – W wypadku książki, w której ewidentnie zobaczyłam całe fragmenty napisane przez AI, poinformowałam wydawnictwo o sytuacji i zasugerowałam, by w umowach wydawniczych zawrzeć paragraf o tym, że autor zobowiązuje się do niekorzystania ze sztucznej inteligencji.
Wydawnictwo Harde nie wyjaśniło mi, jak u nich wygląda krok po kroku współpraca autora z redaktorem.
HANDMADE, ALE TANIO
Dr Wasilewski mówi: – To, czy sobie wyszukam coś za pomocą AI, czy pójdę do biblioteki i zrobię zdjęcia książce, nie ma znaczenia. Znaczenie ma to, czy jako autorzy ręczymy za publikowane treści. W przypadku książki Karoliny Opolskiej mamy do czynienia z dwiema kwestiami: zawierzeniem technologii i wygodnictwem.
Wasilewski uważa, że są w Polsce dobrzy redaktorzy, którzy potrafiliby błędy zrobione przez AI w książce wychwycić, wystarczy ich tylko zatrudnić i im zapłacić. – A tu wszyscy są niedopłaceni. Autorzy dostają za mało, redaktorzy za mało, czytelników jest również za mało – stwierdza.
– W kontekście AI mamy do czynienia z dużym oczekiwaniem zwiększania produktywności przy jednoczesnym obniżaniu kosztów – komentuje dr Marcin Wilkowski. I przypomina o wydanej siedem lat temu dwutomowej biografii Zbigniewa Herberta napisanej przez Andrzeja Franaszka. Autor opowiadał, że spędził nad nią kilka lat, siedząc w bibliotekach, archiwach, ale miał taką swobodę wynikającą z umowy z wydawnictwem. – To jest wyjątek na dzisiejszym rynku książki czy w pracy naukowej. Oczekuje się, że wszystkiego będzie jak najwięcej i jak najlepszej jakości, ale za jak najniższą cenę. W debacie literackiej wyjaśnia się, dlaczego w Polsce nie powstają przełomowe powieści. Bo ich napisanie wymaga czasu i pieniędzy, trzeba mieć do tego przestrzeń oraz zabezpieczenie socjalne – wylicza Wilkowski. – Niektórzy sądzą, że AI pozwoli obejść te wymagania. Szkoda, że w tę pułapkę łapią się także wydawnictwa, publikujące książki przygotowane bez odpowiedniej staranności – dodaje.
Karolina Opolska w jednej z rozmów zapowiedziała, że pojawi się errata z właściwą formą bibliografii. – Do dzisiaj jej nie ma. Nie wiadomo, czy sprawa już jest zamknięta, czy będzie drugie wydanie, czy i kiedy doczekamy się erraty – stwierdza Wójcik. Krzysztof Głowiński-Lubiak, PR manager Grupy ZPR Media (w której skład wchodzi Wydawnictwo Harde), przekazał nam: „gdy znana będzie data wydania erraty, niezwłocznie o tym poinformujemy”. – Oprócz tego nie udzielamy żadnych dodatkowych komentarzy w tym temacie – wyjaśnił.
TO NIE POWINNO SIĘ WYDARZYĆ
Sama Karolina Opolska, obecnie dziennikarka TVP i zastępczyni Jacka Żakowskiego na Uniwersytecie Civitas, tłumaczy mi, że nie odnosiła się publicznie do sprawy, ponieważ wybrała względny spokój – swój i rodziny. – Dostaję codziennie wiadomości, w których czytam, że „jestem ku**, szmatą”, a ludzie życzą mi śmierci, linczu czy zawodowego i prywatnego końca. W mediach społecznościowych zaatakowano też moją rodzinę. Skala agresji, hejtu, wulgarnego, nacechowanego seksualnie, która spada na mnie i na moich bliskich – i nie mówię tutaj o krytyce, bo to zupełnie coś innego i akurat tego było znacznie mniej – przerosła mnie psychicznie i moim zdaniem jest nieadekwatna do zarzutów, które są mi stawiane – wyjaśnia Karolina Opolska. Informuje, że swoją książkę zaczęła pisać w marcu tego roku, skończyła pod koniec września.
– Wyszukując informacje do książki, korzystałam z różnych źródeł i ze wszelkich możliwych narzędzi, nawet tych najbardziej nowoczesnych. Ale były to jedynie narzędzia do wyszukiwania informacji. AI nie było wykorzystywane przy pisaniu tekstu. Książkę pisałam ja – podkreśla. Jednocześnie zaznacza, że nie jest to książka naukowa ani nawet popularnonaukowa, co zresztą napisała we wstępie. – Niektórzy dziennikarze piszą kryminały, inni romanse, a ja napisałam czysto rozrywkową książkę science fiction. Uważam, że traktowanie jej przez niektórych komentujących jako poważnej publikacji naukowej, rzekomo źle udokumentowanej i mającej wpływ na debatę publiczną, jest nadużyciem – stwierdza. Podkreśla też, że publikacja nie ma związku z pracą zawodową, w której zajmuje się rozmowami z politykami i prowadzeniem programów na żywo. Zresztą, jak przypomina, nigdy w ponad 20-letniej karierze nie miała żadnej poważnej wpadki.
– Ogromnie mi przykro, że w książce są błędy. Nie powinny się tam znaleźć. Jako autorka nie dopilnowałam tego, nie dołożyłam dostatecznej staranności i to nie powinno się wydarzyć – stwierdza. – Natomiast nie chcę się zgodzić z tym, żeby ten błąd miał mnie całkowicie skreślać, a dyskusja, która się przy tej okazji wydarzyła, deprecjonuje wszystko, co przez ostatnie 20 lat zrobiłam. Każdy z nas popełnił jakiś błąd. Ważne jest, żeby z tego błędu wyciągnąć wnioski i obiecuję, że to zrobię i będę dochowywać jeszcze większej staranności w pracy i w kolejnych projektach – kończy.
***
„Press” do nabycia w salonach prasowych, App Store, Google Play, e-Kiosku lub online na E-sklep.press.pl.
Czytaj też: Numer na 30-lecie "Press": rozmowa z Miszczakiem, sylwetka Wysockiej-Schnepf i plemiona
Aleksandra Pucułek











