Temat: internet

Dział: INTERNET

Dodano: Kwiecień 22, 2023

Narzędzia:

Drukuj

Drukuj

Sztuczna inteligencja wygenerowała artykuł dla Wyborczej.biz. Kto się zorientował?

Sztuczna inteligencja już sprawdza się w świecie dziennikarskim, ale dziennikarzy długo nie zastąpi (fot. Marcus Winkler/Unsplash.com)

Bolesław Breczko, dziennikarz Wyborcza.biz, opublikował artykuł stworzony przez sztuczną inteligencję. Sam przyznaje, że tekst był słaby, ale redaktorzy, którym go przesłał, nie zorientowali się, że został stworzony przez ChatGPT. Sztuczna inteligencja coraz głębiej wchodzi w dziennikarstwo.

Kilka tygodni temu "Presserwis" opublikował informację o eksperymencie ze sztuczną inteligencją, która czyta biuletyn informacyjny o wojnie w Ukrainie głosem Jarosława Kuźniara. Kuźniar mówił nam wtedy o szczegółach projektu i o konieczności oznaczania takich materiałów sygnaturą potwierdzającą, że zostały stworzone z pomocą AI.

"AI poradziła sobie świetnie"

Podobną opinię wyraża Bolesław Breczko z Wyborcza.biz, który opublikował tekst stworzony przez AI. "Nie chciałem nikogo wprowadzać w błąd, oszukać, uważam, że teksty pisane przez AI powinny być wyraźnie oznaczane. Tylko w ten sposób mogłem sprawdzić, czy ktoś rozpozna, że materiał nie jest stworzony przez człowieka" – napisał w poniedziałek, objaśniając szczegóły swojego eksperymentu.

Czytaj też: Świrski wszczyna postępowanie, a do KRRiT wpływają skargi na "Kropkę nad i" z udziałem prof. Engelking

Jego koledzy redaktorzy, przez których ręce tekst przeszedł, stwierdzili, że całość była zachowawcza i napisana w stylu studenta I roku dziennikarstwa. Tekst był jednak poprawny i jako taki przeszedł pozytywnie redaktorską weryfikację.

– Wykorzystuję AI do różnych celów, ale korzystam z komercyjnej wersji, która nie ma skłonności do konfabulacji – mówi poznański dziennikarz Krzysztof M. Kaźmierczak, członek rady programowej PAP. – Przyznam, że jestem pod wielkim wrażeniem wersji GPT-4, czyli komercyjnej. Sprawdza się w wielu zastosowaniach, także dziennikarskich. Jest świetna do opracowań, porównań, tłumaczeń, z którymi radzi sobie lepiej niż translator Google, korekty błędów.

Kilka dni temu Kaźmierczak spytał ChatGPT-4 o zestawienie 10 najlepszych filmów sf. – Gdybym o to samo spytał Google, dostałbym linki do istniejących i dość sztampowych rankingów. AI poradziła sobie świetnie, porównując wszystkie istniejące bazy filmowe – podkreśla.

Dodaje też, że AI dobrze sprawdza się przy przeszukiwaniu archiwaliów, z którymi on sam pracuje. – Uważam, że niebawem będzie to narzędzie, z którego wszyscy będziemy korzystać, narzędzie wspomagające m.in. research.

Problem ze sztuczną inteligencją w dziennikarstwie

Kaźmierczak dodaje, że obecnie pracuje nad wykorzystaniem AI w serwisie poświęconym sprawie zabójstwa poznańskiego dziennikarza Jarosława Ziętary.

Czytaj też: World Press Photo 2023. Wybrano wstrząsające zdjęcie roku

O własnych doświadczeniach z AI opowiada też Jarosław Rybak, pisarz i dziennikarz zajmujący się tematyką militarną, któremu ChatGPT wygenerował biogram zupełnie niezgodny z rzeczywistością. – Ta powszechnie dostępna, bezpłatna wersja na razie nie nadaje się do zbierania czy weryfikacji danych. Wpisałem kilka nazwisk znajomych z dorobkiem naukowym i licznymi publikacjami. To powinno ułatwić AI zbieranie informacji. W każdym wypadku błędy były poważne. W skrajnym – osobie o niepowtarzalnym, dwuczłonowym nazwisku całkowicie zmieniono obszar zainteresowań (z archeologii na chemię), dorobek, tytuł naukowy i miejsce pracy.

Paweł Nowacki, niezależny ekspert rynku mediów, uważa, że problemu ze sztuczną inteligencją w dziennikarstwie nie ma, dopóki nie dojdzie się do kwestii praw autorskich i odpowiedzialności za opublikowane treści.

Kaźmierczak: – Jeżeli "Wyborcza" opublikowała na swoich stronach tekst stworzony przez AI, to wiadomo – AI za tekst pozwać nie można. Natomiast za samą publikację, zgodnie z prawem prasowym, odpowiada redaktor naczelny i wydawcy, więc jest kogo pozywać. Nie da się zasłonić tym, że tekst stworzyła sztuczna inteligencja.

Za treści odpowiadają dziennikarz i redakcja

Mecenas Michał Kibil z kancelarii DGTL, specjalizujący się w prawnych kwestiach zastosowania sztucznej inteligencji, rozwija temat.

Czytaj też: Kolejna runda zwolnień w Meta. Pracownicy do Zuckerberga: "Zniszczyłeś morale"

– Dopóki pod maszynowo wyprodukowanym tekstem podpisuje się dziennikarz, to on ponosi odpowiedzialność za efekt pracy. Możemy to porównać z dowolnym narzędziem, które pozwoli nam na wygenerowanie czegoś niezgodnego z prawem – mówi Kibil, podając przykład pistoletu wydrukowanego na drukarce 3D, którego można użyć jak regularnej broni.

– To nie ściąga z nas odpowiedzialności. Każdy mógłby się tłumaczyć, że nie jest producentem broni, a samą broń wydrukowała drukarka. Tak samo jest z tekstem wygenerowanym przez AI. Jeżeli taki tekst naruszałby czyjeś prawa autorskie, był nierzetelny w rozumieniu prawa prasowego, to za treść będą odpowiadali dziennikarz i redakcja, która go opublikuje.

Michał Kibil przypomina, że w polskich przepisach przyjmuje się, że utwór może być wytworzony tylko przez człowieka.

Czytaj też: Zespół „NIE” pisze do zachodnich redakcji o notorycznym łamaniu wolności słowa w Polsce

(PAR, 22.04.2023)

* Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter
Pressletter
Ta strona korzysta z plików cookies. Korzystając ze strony bez zmiany ustawień dotyczących cookies w przeglądarce zgadzasz się na zapisywanie ich w pamięci urządzenia. Dodatkowo, korzystając ze strony, akceptujesz klauzulę przetwarzania danych osobowych. Więcej informacji w Regulaminie.