W związku z nadchodzącym Świętem Niepodległości następne wydanie "Presserwisu" pojawi się na Państwa skrzynkach wyjątkowo w środę 12 listopada  |  Na Press.pl będziemy zamieszczać najważniejsze newsy o mediach i reklamie na bieżąco  |  Zapraszamy również na naszego Facebooka i X – podyskutujmy  |  Od początku listopada w salonach prasowych także nowy numer magazynu "Press"  |  Kliknij tutaj, by zobaczyć zapowiedź nowego numeru. Antoni Słodkowski z Agencji Reutera zaszczycony Pulitzerami, rozchodzące się drogi braci Karnowskich, a także klikmania niszcząca dziennikarstwo i uchodźca polityczny Szymon Hołownia – polecamy!  | 

W związku z nadchodzącym Świętem Niepodległości następne wydanie "Presserwisu" pojawi się na Państwa skrzynkach wyjątkowo w środę 12 listopada  |  Na Press.pl będziemy zamieszczać najważniejsze newsy o mediach i reklamie na bieżąco  |  Zapraszamy również na naszego Facebooka i X – podyskutujmy  |  Od początku listopada w salonach prasowych także nowy numer magazynu "Press"  |  Kliknij tutaj, by zobaczyć zapowiedź nowego numeru. Antoni Słodkowski z Agencji Reutera zaszczycony Pulitzerami, rozchodzące się drogi braci Karnowskich, a także klikmania niszcząca dziennikarstwo i uchodźca polityczny Szymon Hołownia – polecamy!  | 

W związku z nadchodzącym Świętem Niepodległości następne wydanie "Presserwisu" pojawi się na Państwa skrzynkach wyjątkowo w środę 12 listopada  |  Na Press.pl będziemy zamieszczać najważniejsze newsy o mediach i reklamie na bieżąco  |  Zapraszamy również na naszego Facebooka i X – podyskutujmy  |  Od początku listopada w salonach prasowych także nowy numer magazynu "Press"  |  Kliknij tutaj, by zobaczyć zapowiedź nowego numeru. Antoni Słodkowski z Agencji Reutera zaszczycony Pulitzerami, rozchodzące się drogi braci Karnowskich, a także klikmania niszcząca dziennikarstwo i uchodźca polityczny Szymon Hołownia – polecamy!  | 

Temat: technologie

Dział: TECHNOLOGIE

Dodano: Listopad 02, 2025

Narzędzia:

Drukuj

Drukuj

Sztuczna inteligencja w redakcji. Rady, jak mądrze i sprytnie korzystać z AI

Nie powinieneś pozostawiać modelowi, którego używasz, żadnych wątpliwości, bo – jak uczy praktyka – będą one wykorzystane przeciwko tobie (fot. Immo Wegmann/Unsplash.com)

Pojawienie się generatywnej sztucznej inteligencji diametralnie zmieniło sposób, w jaki zbieram i porządkuję informacje.

Wejście sztucznej inteligencji do medialnych redakcji można porównać z szokiem, jaki w październiku 1997 roku przeżyło wielu czytelników „The New York Times”. Słynny dziennik był ostatnim z wielkich wydawców, który zdecydował się na druk zdjęć na kolorowym offsecie, i to mimo że inni wydawcy publikowali zdjęcia w kolorze już od lat 80. ubiegłego wieku. Podobnie szerokim echem odbiła się informacja z połowy lutego 2025 roku, że „The New York Times” usankcjonował wykorzystanie narzędzi sztucznej inteligencji w pracy swoich dziennikarzy.

AI na dobre zagościła w życiu dziennikarzy i od wielu będzie wymagała przyswojenia nowych umiejętności. Tymczasem z posługiwaniem się narzędziami AI jest trochę jak z wyszukiwarką internetową: 100 proc. ludzi powie, że oczywiście wie, jak się nią posługiwać, ale badania Eastmana i Jansena pokazują, że jedynie 10 proc. z nas potrafi to robić w sposób poprawny, a więc o wiele skuteczniejszy niż wpisanie prostego zapytania. Podobnie jest z generatywną sztuczną inteligencją i dlatego warto znać kilka zasad umiejętnego tworzenia zapytań, po to by uzyskać maksymalnie trafne odpowiedzi.

SKUTECZNE PROMPT: JAK PISAĆ?

Pierwsza zasada pisania skutecznych zapytań do AI mówi: Pisz jasno i uwzględniaj szczegóły.

Zamiast „Ilu było prezydentów” sprecyzuj dokładnie, o jaki kraj chodzi i w jakim formacie chcesz otrzymać odpowiedź. Na przykład tak: „Stwórz listę wszystkich polskich prezydentów po roku 1918. Scharakteryzuj w jednym akapicie prezydenturę każdego z nich. Wynik przedstaw w tabeli: imię i nazwisko, partia, data urodzenia, charakterystyka rządu, okres kadencji”.

Mówiąc najprościej: nie powinieneś pozostawiać modelowi, którego używasz, żadnych wątpliwości, bo – jak uczy praktyka – będą one wykorzystane przeciwko tobie. Każdy model językowy zrobi wszystko, by odpowiedzieć na otrzymane pytanie i nieraz, gdy dajemy mu szerokie pole do własnej interpretacji, podaje nieprawdziwe informacje. Nazywa się to halucynacją.

Kolejną zasadą jest zdefiniowanie tzw. persony, czyli roli, w jaką ma się wcielić model językowy. To dość naturalne i znamy to z codziennego życia, że inne informacje będą interesowały profesora uniwersytetu, inne gospodynię domową, a inne dziennikarza.

Na przykład gdy chcę podsumować newsy, to zlecam generatywnej inteligencji, by wcielała się w rolę dziennikarza researchera. Piszę na przykład: „Działaj jako doświadczony dziennikarz researcher. Przeczytaj artykuł, stwórz listę poruszanych tematów”. Mogę też przyjąć punkt widzenia innej osoby i napisać: „Działaj jako naukowiec medioznawca. Przeczytaj artykuł i stwórz listę poruszanych tematów”. Lista będzie podobna, chociaż pojawi się różnica w formułowanych tezach. Dziennikarz otrzyma coś, co wygląda na szybkie notatki, w których tematy pisane są prostym językiem. W przypadku persony naukowca dostaniemy inaczej zbudowane zdania i inne słownictwo. Tu czuć naukowy sznyt.

STOSUJ SCHEMATY

Generatywna sztuczna inteligencja coraz częściej pełni funkcję wyszukiwarki, np. Google. Wiem to sam po sobie, że zamiast szukać w Google i później przeglądać znalezione strony, wolę poświęcić chwilę i zadać precyzyjne pytanie w jednym z używanych modeli sztucznej inteligencji. Idealnie do tego celu nadają się schematy uwzględniające nie tylko personę (rolę), ale również kontekst czy grupę docelową (target) oraz wymagania (output) czy oczekiwania (expectation). Takie schematy często oznaczane są skrótami od pierwszych liter tworzących je wyrazów. Na przykład RACE to skrót od role, action, context, expectation. Są ich setki i właściwie większość jest do siebie funkcjonalnie łudząco podobna, a różni je jedynie nazwa. Na przykład RACE to właściwie to samo co RTTO (role task target output). Możemy zatem napisać: „Jesteś nauczycielem (rola). Wyjaśnij przyczyny II wojny światowej (action) dla licealistów (context). Użyj prostego języka, max 300 słów (output)”.

W wielu przypadkach wystarczającymi elementami promptu jest opisanie własnej roli i kontekstu, np. „Działaj jako doświadczony dziennikarz”, zadania, np. „Przeczytaj artykuł i spisz najważniejsze z opisywanych w nim tematów”, i wymagania co do wyniku, np. „Stwórz tabelę zawierającą: temat, krótkie omówienie, występujące osoby czy miejsca”. Taki najprostszy prompt nazywany jest RTO. Jeśli zapamiętamy ten skrót, łatwo będzie go nam odtworzyć.

ZAAWANSOWANE TECHNIKI PROMPTOWANIA

Podczas pisania promptów warto używać technik, które naprowadzą AI na właściwy dla nas trop. Pierwsza z popularnych to „few-shot prompting”, czyli podanie przykładu. Zgodnie z nazwą polega na podaniu czatowi kilku przykładów danych, jakimi dysponujemy, i wyników, jakich oczekujemy. Na podstawie tych przykładów model uczy się, w jaki sposób ma tworzyć odpowiedź. Google w swoim poradniku podaje bardzo prosty, ale jasno tłumaczący przykład:

Input: kot

Output: mały, futrzasty ssak z wąsami

Input: pies

Output: udomowiony ssak z rodziny psowatych, znany ze swojej lojalności

Prompt: słoń

Output: tu uzyskasz odpowiedź od AI

Zwróć uwagę, że dobrze jest oznaczyć, np. po angielsku, które dane podajemy (input), a które to oczekiwana odpowiedź (output). Prawie zawsze używam tu terminologii angielskiej (input, output). Polskie słowa są oczywiście dopuszczalne, ale mogą zostać źle zrozumiane.

Druga technika, szczególnie przydatna w przypadku rozwiązywania zadań wymagających rozumowania, to CoT (chain of thoughts), co po polsku chyba najlepiej oddaje „krok po kroku”. Modele językowe popełniają mniej błędów, gdy tworzą rozwiązanie krok po kroku. Niekiedy taką technikę możemy zastosować w najprostszy możliwy sposób, np. „Przedstaw krok po kroku metodę obliczania głosów w wyborach parlamentarnych w Polsce w 2023 roku”. Nieco bardziej zaawansowana technika to połączenie techniki podawania przykładów („few-shot prompting”) oraz techniki „krok po kroku” (CoT).

Pytanie: „Jak generatywna AI może pomóc dziennikarzowi w przygotowaniu artykułu? Pomyślmy krok po kroku”.

Odpowiedź:

„Po pierwsze, dziennikarz korzysta z AI, aby zebrać i przeanalizować duże zbiory danych, np. z raportów czy dokumentów publicznych. Po drugie, AI pomaga w streszczaniu i syntezie najważniejszych informacji, co skraca czas researchu. Po trzecie, narzędzie generatywne może zaproponować strukturę artykułu lub wygenerować wstępny szkic tekstu. Po czwarte, AI wspiera w redakcji tekstu, sugerując poprawki stylistyczne i gramatyczne oraz sprawdzając fakty. Po piąte, dziennikarz wykorzystuje AI do przygotowania różnych wersji tekstu, np. do social mediów lub tłumaczeń na inne języki, a następnie finalizuje artykuł po własnej weryfikacji i edycji”.

Pytanie: „W jaki sposób AI może wspierać dziennikarza w analizie trendów i preferencji odbiorców? Pomyślmy krok po kroku”.

Odpowiedź:

„Najpierw AI monitoruje media społecznościowe i inne źródła, aby zidentyfikować popularne tematy i nastroje społeczne. Następnie analizuje zebrane dane, wskazując, które tematy budzą największe zainteresowanie wśród odbiorców. Kolejno AI sugeruje dziennikarzowi potencjalne kierunki rozwoju artykułu lub nowe tematy do podjęcia. Na końcu dziennikarz wykorzystuje te wskazówki do lepszego dopasowania treści do oczekiwań czytelników”.

Pytanie: „Jak AI może usprawnić pracę nad materiałami multimedialnymi w redakcji? Pomyślmy krok po kroku”.

Odpowiedź: tu pojawi się odpowiedź modelu.

Niekiedy wobec modeli sztucznej inteligencji musimy użyć podstępu, by ją zmusić do wytworzenia oczekiwanych rezultatów oraz zminimalizować prawdopodobieństwo wystąpienia błędów czy pominięcia niektórych informacji. Służy temu dzielenie złożonych zadań na mniejsze podzadania.

Jednym z częściej zlecanych przeze mnie zadań dla generatywnej inteligencji jest tworzenie podsumowania artykułu czy strony internetowej. Procedura wygląda tak: czytam artykuł, z którego chcę mieć notatkę. Zamiast odrywać się od czytania, by notować, po lekturze zlecę podsumowanie. Kiedyś mój prompt wyglądał banalnie: „Podsumuj artykuł”. Z czasem ewoluował i dodawałem kolejne elementy, takie jak „Napisz wszystkie tematy poruszane w artykule” i tak krok po kroku, obserwując wyniki, doszedłem do obecnego promptu, w którym właśnie dzielę zadanie na podzadania. Efekt w przypadku większości artykułów jest naprawdę dobry. Moje podsumowanie dzielę na zadania, które zapewne sam bym wykonywał, gdybym to robił ręcznie. Po pierwsze, przeczytałbym dokładnie tekst, akapit po akapicie. Następnie każdy akapit podsumowałbym. Takie podsumowanie akapitu zawierałoby temat poruszany w akapicie, nazwiska występujących osób, firmy, organizacje i inne podmioty. Na koniec poprosiłbym o wygenerowanie trzech tagów, co przydaje mi się do katalogowania notatek w Obsidianie, którego używam na co dzień. W efekcie mój prompt brzmi tak:

„Twoim zadaniem będzie przygotowanie podsumowania artykułu w formie notatki. Postępuj krok po kroku według podanego poniżej schematu. 

1. Dokładnie przeczytaj, akapit po akapicie, artykuł: https://wiadomosci.wp.pl/robili-to-juz-wczesniej-nowe-ustalenia-wp-ws-reklam-z-zagranicy-w-czasie-kampanii-7159177740462880a

2. Dla każdego akapitu stwórz podsumowanie zawierające tematy i tezy omawiane w akapicie, występujące osoby, instytucje czy organizacje, przyczyny i skutki działań. Każde podsumowanie musi odpowiadać na tzw. 5W. Nie używaj punktów, pisz prozą. 

3. Stwórz trzy tagi najlepiej charakteryzujące tematykę artykułu.

4. Dokładnie sprawdź, czy w podsumowaniach akapitów są wszystkie informacje z konkretnego akapitu. Jeśli nie, to je uzupełnij”.

5W to oczywiście angielski akronim oznaczający tzw. metodę Kiplinga, który powstał z następujących pytań: what? (co), who? (kto), when? (kiedy), where? (gdzie), why? (dlaczego). Czasem dodaje się do niego H, czyli how? (jak). Metoda ta pozwala na kompleksowe podejście do każdego problemu.

Treść artykułu podałem w prompcie w najwygodniejszy, ale niestety nie zawsze skuteczny sposób, czyli wskazując adres internetowy strony. Niektóre modele językowe nie potrafią odczytywać stron internetowych, inne np. mogą być blokowane przez serwery wydawcy, by nie skanowały artykułów. W efekcie możesz dostać komunikat, że model nie jest w stanie pobrać artykułu. Jedynym wówczas skutecznym sposobem jest skopiowanie go albo zapisanie (wydrukowanie) artykułu jako pliku pdf i wgranie go w okienku czatu, gdzie umieszczamy prompt. Oczywiście musimy wtedy zmodyfikować nasz prompt, zaznaczając, że artykuł jest w załączonym pliku.

TWORZENIE PROMPTU PRZEZ GENAI

Często do modyfikacji czy nawet tworzenia promptów używam… generatywnej sztucznej inteligencji. Zobacz to na przykładzie prostego promptu: „Podsumuj artykuł [URL/plik artykułu]”. Najczęściej w pierwszej próbie stosuję format RTO (role – task – output): „ROLA: Działaj jako profesjonalny senior inżynier promptów. ZADANIE: Twoim zadaniem jest zmodyfikowanie promptu: „Podsumuj artykuł znajdujący się na stronie URL”, aby otrzymać maksymalnie dużo wiedzy, a przy tym uniknąć błędów i halucynacji. OUTPUT: Zaproponuj trzy różne propozycje modyfikacji podanego przeze mnie promptu i przedstaw sposób ich działania, wady i zalety”. Kiedyś z trzech propozycji wybrałem tę, która wydała mi się najlepsza, i ją stosowałem. Teraz często robię tak, że… proszę genAI, by ją udoskonaliła. Poniżej przykład wykorzystania tego samego promptu do stworzenia ulepszonej wersji promptu podanego przez chata: „Działaj jako profesjonalny senior inżynier promptów. ZADANIE: Twoim zadaniem jest zmodyfikowanie promptu: „Przeanalizuj artykuł znajdujący się pod adresem [URL] i przygotuj szczegółowe podsumowanie najważniejszych tez, argumentów oraz wniosków, unikając domysłów i informacji nieobecnych w tekście źródłowym. Podaj także cytaty potwierdzające kluczowe informacje”, aby otrzymać maksymalnie dużo wiedzy, a przy tym uniknąć błędów i halucynacji. OUTPUT: Zaproponuj trzy różne propozycje modyfikacji podanego przeze mnie promptu i przedstaw sposób ich działania, wady i zalety”.

Takie twórcze wykorzystanie modelu językowego ma też tę zaletę, że możemy wykryć i wykorzystać elementy promptu, które wcześniej nie przyszły nam nawet do głowy. Na przykład w trakcie dopracowywania promptu z podsumowaniem artykułu czy strony chatGPT podpowiedział mi wersję promptu, w której wynikiem jest wskazanie potencjalnych luk w informacjach wymagających uzupełnienia.

NOTEBOOKLM: NOWE NARZĘDZIE

25 lutego 2025 roku w Białym Domu w Waszyngtonie odbył się briefing prasowy 28-letniej Karoline Leavitt, sekretarz prasowej prezydenta Trumpa. Pewnie bym tej konferencji nie zauważył, gdyby nie to, że wśród amerykańskich dziennikarzy w serwisie X wywołała spore poruszenie. Chodziło o słynne już zmiany zasad działania korpusu prasowego Białego Domu. Postanowiłem sprawdzić, co powiedziała na ten temat Leavitt. Briefingi prasowe Białego Domu są publikowane, na żywo, na kanale YouTube Białego Domu (https://www.youtube.com/@WhiteHouse). Wystarczy wejść i wśród playlist znaleźć „Press Briefings”, a następnie poszukiwany zapis wideo.

Interesował mnie fragment konferencji, więc trochę szkoda mi było czasu oglądać całość. Otworzyłem więc stronę NotebookLM (https://notebooklm.google.com), dodałem link do filmu z YouTube’a z zapisem konferencji i po chwili mogłem się dowiedzieć, co było na konferencji, przeglądając transkrypcję wideo.

NotebookLM to skrzyżowanie notatnika z modelem językowym. Możemy w nim mieć notatniki, w których do każdego dodajemy różne „źródła”, np. link do wideo z YouTube’a, do dowolnej strony internetowej, dokumenty Worda, a nawet pliki multimedialne: filmy (mp4), audio (mp3) czy graficzne (jpg i png). W wersji podstawowej (bezpłatnej) możemy stworzyć do 100 notatników, a w każdym dodać do 50 dokumentów. Każdy z tych dokumentów może mieć do 500 tys. słów lub 200 MB danych, czyli tyle, ile ma na przykład wielka powieść Lwa Tołstoja – „Wojna i pokój”.

Dodane dokumenty to baza wiedzy, z której korzysta model. Oznacza to, że na każde nasze pytanie otrzymamy odpowiedź opartą wyłącznie na informacjach zawartych w dodanych przez nas dokumentach. Na przykład gdy po dodaniu zapisu z YouTube’a konferencji sekretarz Leavitt zapytałem NotebookLM: „Ile lat ma Donald Trump”, to odpowiedzią było, że nie ma takiej informacji. To jedna z najważniejszych zalet tego narzędzia: brak tzw. halucynacji, czyli zmyślania przez generatywną sztuczną inteligencję odpowiedzi na podstawie nieznanych nam źródeł. Dlatego NotebookLM jest rozwiązaniem wprost wymarzonym dla dziennikarzy czy naukowców.

Praca z NotebookLM nie różni się specjalnie od tej z dowolnym innym czatem. Piszemy prompt i po chwili dostajemy odpowiedź. Ja zadałem najprostsze, czyli: „Podaj tematy poruszane podczas konferencji przez Leavitt”. Po chwili dostałem sporą (ponad 4 tys. znaków) notatkę, w której omówione zostały wszystkie tematy. Poprosiłem o szczegółowe podsumowanie tematu związanego z korpusem prasowym Białego Domu i po chwili miałem równie szczegółowe omówienie wypowiedzi Leavitt. Jeśli jesteśmy zadowoleni z odpowiedzi czata, to możemy je zapisać jako notatkę, a nawet tak stworzoną notatkę dodać do źródeł! To o tyle ważne, że jeśli tego nie zrobimy, to po ponownym wczytaniu notatnika z NotebookLM cała historia naszej rozmowy przepada. Zapisałem szczegółowe omówienie tematu korpusu prasowego w notatce, a następnie dodałem ją do źródeł, by później wykorzystać ją do stworzenia audiopodsumowania. Jest to funkcja, która robi największe wrażenie na wszystkich, którzy pierwszy raz widzą NotebookLM. Podsumowanie audio to nic innego jak kilkuminutowy (w zależności od ilości dokumentów i tematu) podcast, w którym kobieta i mężczyzna prowadzą interesującą rozmowę na temat poruszany w zaznaczonych źródłach. Aby go stworzyć, zaznaczasz źródła, na bazie których ma być stworzona rozmowa, i klikasz w okienku „Studio” przycisk „Wygeneruj”. Mniej więcej po trzech minutach mam pięciominutową rozmowę na temat zmian ogłoszonych przez sekretarz prasową. Możemy ją odtworzyć albo pobrać plik mp3 i skopiować do dowolnego urządzenia, by odsłuchać. Funkcje tę wiele osób wykorzystuje, by dostać w atrakcyjnej formie (np. do odsłuchania w samochodzie) podsumowanie tematu, nad którym pracują w NotebookLM. Często korzystają z niej studenci i naukowcy, sprawdzając, czy artykuł zawiera tematy potrzebne do nauki przed egzaminem.

Dla mnie „Podsumowanie audio” to wspaniałe narzędzie oszczędzające czas na zapoznanie się z najważniejszymi tematami poruszanymi w zebranych dokumentach. Kiedy w mediach widzimy skróty konferencji prasowych, to najczęściej są ograniczone do jednego, niekiedy kilku tematów. Dlatego często pobieram z YouTube’a np. zapis audio lub wideo interesującego mnie wydarzenia, dodaję do NotebookLM, a następnie tworzę „Podsumowanie audio”, które odsłuchuję na smartfonie w wybranym momencie. Ostatnio w ramach eksperymentu wskazałem jako źródło zapis wideo sesji Sejmu, czyli wideo ponad 11-godzinne. Chwilę trwało, zanim to przemielił, ale później poprosiłem go o napisanie najważniejszych tematów oraz listy wszystkich posłów, którzy się wypowiadali, wraz z krótkim podsumowaniem ich wypowiedzi. Chyba pierwszy raz w życiu uzyskałem tak dużą wiedzę na temat obrad parlamentu.

ANALIZA DANYCH Z AI

Do niedawna rzadko korzystałem z raportów giełdowych czy budżetów miasta, w którym mieszkam. Powód jest prosty: przerażała mnie ich wielkość. Od czasu, gdy pojawiła się generatywna sztuczna inteligencja, zmieniło się to całkowicie. Najczęściej do analizy używam Perplexity Pro, Groka albo DeepSeek. Pierwszy rzadko halucynuje i do tego dostarcza źródła, na których się opiera, drugi jest doskonały do newsów, bo ma pełny obraz informacji z Twittera/X, trzeci jest bardzo szybki.

Interesuje mnie raport giełdowy Agory? Pobieram PDF ze strony spółki, dodaję jako źródło i w okienku czatu wpisuję: „Podsumuj najważniejsze elementy raportu giełdowego w załączniku. Przedstaw segmenty, w których nastąpił wzrost i spadek sprzedaży”. Po kilku minutach mam gotową w skondensowanej formie analizę wyników. Jeśli jakiś element mnie interesuje, to zadaję dodatkowe pytanie, np. „Przedstaw szczegółowe wyniki działu Internet wraz z wyjaśnieniem spółki”. Podobnie postępuję z innymi dokumentami, które do niedawna jeszcze omijałem szerokim łukiem ze względu na ich wielkość i stopień skomplikowania. Teraz z ciekawością zaglądam do planu budżetu Krakowa, gdzie mieszkam. Dotychczas by coś szybko wyszukać, zdany byłem na CTRL + F, czyli wyszukiwanie w tekście po zadanych słowach. Teraz dodaję plik PDF z budżetem Krakowa do Perplexity, proszę o podsumowanie np. dochodów Krakowa i po chwili wiem, że z biletów komunikacji Kraków będzie miał przychód ponad 0,5 mld złotych.

AI W PRZYGOTOWANIU WYWIADÓW

NotebookLM doskonale sprawdzi się w czasie przygotowań do wywiadu. 50 dokumentów, z których każdy może pomieścić 500 tys. wyrazów, to 25 mln wyrazów – wystarczająco dużo, by pomieścić wszystko, co o dowolnym polskim polityku czy twórcy napisano kiedykolwiek w mediach. Korzystając z okazji, że trwała kampania wyborcza, postanowiłem wejść w skórę dziennikarzy przygotowujących się do rozmowy z Rafałem Trzaskowskim. Do NotebookLM dodałem 50 linków do zapisów spotkań wyborczych Trzaskowskiego z YouTube’a. Na tej podstawie poprosiłem czat, by stworzył mi spis wszystkich spotkań, datę i miejsce, najważniejsze z poruszanych tematów, hasła i ton spotkania. To pozwoliło mi się zorientować, że kandydat na prezydenta skupiał się na dziewięciu dużych tematach: od bezpieczeństwa, przez równe szanse i usługi publiczne, na dezinformacji i sztucznej inteligencji kończąc. Kolejnym krokiem było zlecenie przygotowania dla każdego z tych tematów postulatów i obietnic Trzaskowskiego. Powstał z tego dość spory program, zawierający zarówno „powinniśmy”, ale też „obiecuję”. Jednym z tematów, który Trzaskowski poruszał podczas spotkań, były prawa i bezpieczeństwo kobiet. W czacie NotebookLM wpisałem: „Opracuj 5 pytań dotyczących praw kobiet, na które Rafał Trzaskowski nie odpowiadał podczas spotkań z wyborcami”. Dostałem pięć ciekawych pytań, jak np. „Jakie konkretne rozwiązania finansowe proponuje kandydat na poziomie krajowym, aby systemowo wspierać i rozwijać programy na rzecz praw kobiet, wzorując się na doświadczeniach z Warszawy?”. Dodatkowo uzasadnienie, w którym czytam, że kandydat na prezydenta dużo mówił o wspieraniu praw kobiet w Warszawie, ale nic, jak ma te doświadczenia przenieść na całą Polskę.

ZBIERANIE MATERIAŁÓW: LLM i NOTEBOOKLM

Pojawienie się generatywnej sztucznej inteligencji diametralnie zmieniło sposób, w jaki zbieram i porządkuję informacje. Szczególnie te aplikacje, które mają tryb Deep Research. Jest to technologia, dostępna m.in. w popularnych ChatGPT, Google Gemini czy Perplexity Pro, która sprawia, że model sztucznej inteligencji działa jak doświadczony badacz: krok po kroku przeszukuje internet, analizuje źródła, podejmuje na bieżąco decyzje co do wykorzystania czy wyszukiwania dodatkowych informacji, by na końcu przygotować szczegółowy raport z odwołaniem do źródeł.

Moje kroki przedstawię na przykładzie zbierania materiałów na temat wyborów prezydenckich w Polsce. Pierwszym krokiem jest stworzenie raportu badawczego. Najczęściej używam do tego celu Perplexity Pro, ale sprawdzam też, jak taki raport opracowują inne modele. W tym wypadku użyłem promptu o treści: „Zbierz i podsumuj najważniejsze elementy kampanii prezydenckich w Polsce od 1989 roku”. Całkiem obszerny raport, na bazie blisko 50 źródeł, dodaję do NotebookLM. Następnie wyszukuję inne, dodatkowe materiały. Dobre, choć nie zawsze bezbłędne są artykuły Wikipedii, które zawierają syntetyczne ujęcie i uporządkowane fakty, wraz z osobami i organizacjami. Dodatkowo olbrzymią wartość stanowią przypisy w artykułach Wikipedii, które zawsze przeglądam i często niektóre z nich wykorzystuję do budowania bazy wiedzy, czyli po prostu dodaję linki do tych stron do NotebookLM. Tu z tego nie skorzystałem, ale mógłbym na przykład dodać zapis audio czy wideo debat w kampanii. Zanim zacznę rozmawiać z czatem, robię dwie rzeczy: oś czasu oraz mapę myśli.

Oś czasu to notatka zawierająca uporządkowane chronologicznie najważniejsze wydarzenia i fakty znalezione w udostępnionych źródłach. Wykonuję ją, zaznaczając wszystkie lub tylko wybrane źródła w notatniku i klikając w „Studio” na przycisk „Oś czasu”. W efekcie otrzymuję dokument z chronologicznie podanymi datami i wydarzeniami. Mapa myśli to wiedza przedstawiona w formie grafu, gdzie węzły reprezentują koncepcję, a krawędzie (linie) relacje między nimi. Dzięki temu możemy szybko i skutecznie poznać wszystkie zagadnienia występujące w źródłach. Dodatkowo klikając myszką w wybrany temat mapy myśli, NotebookLM automatycznie generuje zapytanie do czatu, którego efektem jest obszerna notatka na ten temat, wraz z odwołaniami do źródeł. Dzięki tym dwóm funkcjom poznanie dowolnych obszernych materiałów jest bajecznie proste.

WYKORZYSTYWANIE NOTATEK I INNYCH MATERIAŁÓW

W maju 2025 roku Walter Isaacson, amerykański pisarz, twórca bestsellerowych biografii, m.in. Steve’a Jobsa i Elona Muska, napisał na platformie X: „Korzystam z Google Notebook, dzięki @stevenbjohnson i innym z @Google, aby przejrzeć wszystkie naukowe notatniki Marie Curie oraz jej listy i pisma (…)”. Isaacson dołączył do tweeta wideo z zapisem rozmowy ze Stevenem Johnsonem, amerykańskim autorem 13 bestsellerów, który, zatrudniony przez Google, jest jednym z twórców NotebookLM. Podczas rozmowy Johnson wyjaśnił, w jaki sposób wykorzystuje to narzędzie w swojej pracy twórczej. Wstawiłem – mówił Johnson – do notatnika wszystkie zebrane przeze mnie przez 20 lat cytaty z mojego Kindle’a, z różnych książek i prac, które przeczytałem; w sumie kilka milionów słów. Wykorzystując czat, mogę zlecić sztucznej inteligencji wybieranie interesujących mnie kwestii, porządkowanie ich, a nawet wyszukiwanie powiązań między różnymi pracami – dodaje.

W rozmowie na YouTubie z Danem Shipperem, którą gorąco polecam, Johnson pokazuje całą metodologię swojej pracy z narzędziami sztucznej inteligencji, która rozwiązała mu problem trapiący wszystkich dziennikarzy, pisarzy czy naukowców – ogromu informacji, jakie zbierają.

Wyznaje on zasadę „powstającego chaosu” (emergent chaos), którą tłumaczy w ten sposób: Zamiast spędzać czas na kategoryzowaniu i tagowaniu notatek, wolę je wrzucić w jedno miejsce (do notatnika) i następnie eksplorować, zadając różne pytania i odkrywając połączenia między notatkami. Jako materiały służą mu jego osobiste notatki, artykuły naukowe, a nawet samodzielnie zebrane cytaty z różnych książek i artykułów, transkrypcje wywiadów. W tak przygotowanym notatniku wykorzystuje funkcje „Przewodnik po źródłach”, który włączamy, klikając w wybrane źródło. Często też używa funkcji „Podsumowania”, którą znajdziemy w części studio NotebookLM, szczególnie w przypadku źródeł, których nie przeczytał lub przeczytał tylko pobieżnie. Tworzy ona obszerne i bardzo dokładne podsumowanie zaznaczonych źródeł. Podczas interakcji z modelem przez czat zadaje różne pytania, od prośby o podanie najciekawszych faktów po wymagające od modelu większego zrozumienia, jak np. „Co jest najbardziej zaskakującą ideą?”. Czat służy mu również do wynajdowania nieoczekiwanych, ale istotnych powiązań. Podaje przykład, jak podczas pracy nad pomysłem nad dokumentem o pożarze Apollo 1 NotebookLM zasugerował związek między pożarem a wcześniejszymi eksperymentami z czystym tlenem w gondoli, prowadzonymi przez szwajcarskiego fizyka Augusta Piccarda, który jako pierwszy w 1931 roku wzniósł się balonem na wysokość ponad 15 km, przekraczając granicę stratosfery. To odkrycie spowodowało, że Johnson rozpoczął pracę nad książką na temat przyczyn katastrofy Apollo 1.

Ta metoda idealnie nadaje się do pracy dziennikarskiej, gdzie w zbiorze różnych dokumentów na opracowywany temat, szukając różnych połączeń między dokumentami ze swojego archiwum, dziennikarz może odkryć niewidoczną na pierwszy rzut oka wiedzę, ukrytą na przykład w cytatach z różnych, pozornie niepowiązanych ze sobą dokumentów.

DZIENNIKARSTWO JUTRA: ROLA HUMANISTÓW

Jestem w tej szczęśliwej sytuacji, że z racji wieku przeżyłem w swoim życiu już trzy rewolucje, które zmieniły mój świat: komputery osobiste, internet, a teraz rozwój generatywnej sztucznej inteligencji. Z moich doświadczeń wynika, że to, co obecnie widzimy, z jakich narzędzi sztucznej inteligencji i w jaki sposób korzystamy w pracy dziennikarza, to jest dopiero początek zmian. Przekładając to na technologie komunikacyjne – mam wrażenie, że jesteśmy na etapie zachwytu nad poczciwymi klawiszowymi nokiami. Zmiana dopiero nadejdzie, pod postaciami agentów AI, czyli usług opartych na sztucznej inteligencji, która będzie za nas nie tylko wyszukiwała informacje, ale również sama decydowała, które informacje są dla nas ważne, skąd je pobrać i jak je przedstawić.

Jeszcze przed końcem obecnej dekady, budząc się rano, zamiast włączać radio, będziemy dostawali na nasz smartfon czy inne inteligentne urządzenie, które go zastąpi, pakiet najważniejszych życiowych informacji, które na nasze życzenie agent będzie aktualizował lub rozwijał. Przykład Johnsona, którego Google zatrudnił nie dlatego, że był wybitnym specem od algorytmów, tylko praktykiem wykorzystującym wiedzę, pokazuje, że wielką rolę odegrają nie programiści, ale… humaniści. Pięknie o tej wizji napisał Johnson na swoim blogu w artykule „Zemsta humanistów” (https://adjacentpossible.substack.com/p/revenge-of-the-humanities), którą polecam, ku pokrzepieniu serc, każdemu humaniście.

***

Ten tekst Stanisława M. Stanucha pochodzi z magazynu Press  wydanie nr 7-8/2025. Teraz udostępniliśmy go do przeczytania w całości dla najaktywniejszych Czytelników.

„Press” do nabycia w dobrych salonach prasowych lub online (wydanie drukowane lub e-wydanie) na e-sklep.press.pl.

Czytaj też: Nowy "Press": Magda Łucyan chce zmienić los ludzi, dziennikarki przepraszają Gonciarza, a także Antoni Dudek o sobie i Sławosz Uznański-Wiśniewski

Press

Stanisław M. Stanuch

* Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter
Pressletter
Ta strona korzysta z plików cookies. Korzystając ze strony bez zmiany ustawień dotyczących cookies w przeglądarce zgadzasz się na zapisywanie ich w pamięci urządzenia. Dodatkowo, korzystając ze strony, akceptujesz klauzulę przetwarzania danych osobowych. Więcej informacji w Regulaminie.