Sztuczna inteligencja wpłynie na kształt dziennikarstwa. Badanie Reuters Institute
Prawie 30 proc. badanych wie, że sztuczna inteligencja już jest wykorzystywana przez dziennikarzy do tworzenia materiałów (fot. Zac Wolff/Unsplash)
Mniej godne zaufania i mniej przejrzyste, ale aktualniejsze – takie zdaniem ankietowanych przez Reuters Institute mają być wiadomości tworzone przez sztuczną inteligencję pod nadzorem dziennikarzy. Zdaniem 66 proc. badanych w sześciu krajach AI będzie miała w najbliższym czasie duży wpływ na dziennikarstwo.
Reuters Institute przeprowadził internetowe badania ankietowe w sześciu krajach: Argentynie, Danii, Francji, Japonii, Wielkiej Brytanii i USA. Wynika z nich, że o sztucznej inteligencji w postaci najpopularniejszego dziś ChatGPT słyszała połowa respondentów. Najrzadziej korzystają z niego, przynajmniej raz dziennie, użytkownicy z Japonii (1 proc.), we Francji i Wielkiej Brytanii odsetek ten wynosi 2 proc., a w USA – 7 proc. Kolejne pod względem popularności narzędzia AI to Google Gemini i Microsoft Copilot.
Informacje od AI mniej godne zaufania, ale tańsze
Zaledwie 5 proc. z sześciu objętych badaniem krajów twierdzi, że korzysta z generatywnej sztucznej inteligencji, aby uzyskać najnowsze wiadomości.
Czytaj też: AI przepisze na wczoraj. Sztuczna inteligencja świetnie spisuje wywiady. WARSZTAT
Badani ocenili m.in. możliwe skutki wykorzystania AI w dziennikarstwie. Mowa tu o wykorzystaniu narzędzi, ale wciąż pod nadzorem człowieka, do kreowania informacji. Ankietowani uważają, że będą one mniej godne zaufania i mniej przejrzyste, ale aktualniejsze i tańsze w produkcji dla wydawców. Jedynie 8 proc. pytanych uznaje, że za wiadomości generowane przez sztuczną inteligencję warto będzie płacić więcej niż za wiadomości tworzone przez ludzi.
Według badanych dziennikarze i tak używają już generatywnej sztucznej inteligencji do wykonywania części zadań. Według 45 proc. AI pomaga dziennikarzom w korekcie, według 29 proc. – w pisaniu nagłówków, a według 27 proc. – przy samym pisaniu tekstów. W tym ostatnim przypadku liczba odpowiedzi "czasami" wyniosła aż 42 proc.
Czy treści AI powinny być oznaczane?
Zaledwie co trzeci badany (32 proc.) uważa, że teksty tworzone przez AI są sprawdzane przez redaktorów pod względem merytorycznym i jakościowym. Jednocześnie 58 proc. badanych woli teksty tworzone przez ludzi, a 41 proc. toleruje materiały dziennikarzy wspomagających się jedynie AI. Użytkowanie sztucznej inteligencji jest zdaniem badanych dopuszczalne raczej przy tematyce mody, sportu, kultury i sztuki czy nauki i technologii, ale nie przy tematach dotyczących polityki, przestępstw, wiadomości międzynarodowych i lokalnych czy biznesu.
Czytaj też: Facebook przez pięć miesięcy nie chciał usunąć fałszywego konta znanej tiktokerki
Autorzy badania przypominają, że różne formy sztucznej inteligencji są od dawna wykorzystywane do tworzenia wiadomości – na przykład w Associated Press, Bloombergu i Reutersie. Treści utworzone przy użyciu nowszych form generatywnej sztucznej inteligencji zostały opublikowane z różnymi efektami m.in. przez "BuzzFeed", "Los Angeles Times", "Miami Herald" i "USA Today".
Opinie ankietowanych nie są zgodne co do tego, czy takie treści powinny być w specjalny sposób oznaczane. W przypadku zdjęć wygenerowanych przez AI ich oznaczenia domagało się 49 proc. badanych. W przypadku tekstów – 47 proc. Oznaczania wygenerowanych nagłówków chce 35 proc., oznaczania infografik – 38 proc., ale aż 41 proc. badanych chciałoby oznaczania materiałów zawierających maszynowe przekłady z innych języków.
Czytaj też: Musk zebrał 6 mld dol. na swój start-up xAI, zajmujący się sztuczną inteligencją
(PAR, 08.06.2024)